¿La asociación ChatGPT de Apple podría exponerla a riesgos legales?

OpenAI, creador de ChatGPT, está siendo demandado por numerosos medios de noticias y autores por presuntas infracciones de derechos de autor

Es posible que se gane una comisión por los enlaces en esta página.
Imagen para el artículo titulado ¿La asociación ChatGPT de Apple podría exponerla a riesgos legales?
Imagen: Hakan Nural/Anadolu (Getty Images)

La asociación recién anunciada de Apple con el creador de chatbots IA OpenAI pondrá el ChatGPT más último en los próximos iPhones, iPads y Macs. A medida que OpenAI continúa enfrentando acciones legales de medios de noticias y autores, el nuevo acuerdo con Apple plantea preguntas: ¿podría Apple ser considerada responsable si los tribunales dictaminan que OpenAI violó los derechos de autor?

Publicidad

OpenAI ha sido demandado por autores y organizaciones de noticias — incluyendo The Intercept y The New York Times , durante el último año en múltiples demandas que acusaban al creador de ChatGPT de violaciones de derechos de copyright. La preocupación es que OpenAI está utilizando contenido original de los escritores sin compensación para entrenar sus modelos de IA , con escritores que dicen que la startup de IA les ha robado.

Neil Elan, abogado senior de Stubbs Alderton & Markiles LLP, dice que Apple probablemente no sería considerada responsable en tales casos. Creo que tendría un impacto directo en Apple”, dijo.

Publicidad

Según Elan, sin embargo, si los tribunales fallan a favor de los demandantes, podrían emitir órdenes judiciales que impidan a OpenAI continuar recopilando datos en un manera no autorizada. Por un lado, eso podría dañar la reputación de ChatGPT e impactar negativamente a Apple por la virtud de la asociación. El resultado podría ser bueno para los usuarios de Apple que buscan proteger sus datos cuando usan ChatGPT a través de OpenAI.

Publicidad

La privacidad de los datos es un riesgo legal mayor para Apple cuando se trata de su asociación con OpenAI que la infracción de derechos de autor, dijo Elan. Eso se debe a que “no hay garantía de que será exitoso y protegerá a todos los usuarios en la forma que Apple representa”.

Publicidad

Apple puso la privacidad en primer plano Anuncios de IA el lunes durante su Conferencia Mundial de Desarrolladores. A diferencia de otro software de IA, Apple dijo que sus herramientas de IA (en la mayoría de los casos) estarán impulsadas por hardware que se encuentra en su dispositivo Apple. . En los casos cuando el software de IA más complejo requiera más potencia de cómputo, Apple utilizará un nuevo modelo llamado “cómputo de nube privada. modelo significa que los datos de los usuarios de iPhone de Apple se envían de forma más segura a servidores que se ejecutan en hardware de Apple.

Pero Elan dijo que “la política de computación en la nube privada podría no ser lo suficientemente fuerte en ciertas áreas” para proteger completamente a Apple de preocupaciones legales sobre privacidad de los clientes. Y Apple no tiene tanto control sobre la privacidad de los usuarios cuando Siri subcontrata consultas a ChatGPT. Aún así, los usuarios poder optar por participar o no participar en el uso de ChatGPT-4o, y OpenAI hizo grandes concesiones: la startup no almacenará las solicitudes de direcciones IP de los clientes de Apple.

Publicidad

Apple también está haciendo mucho más por la privacidad de los usuarios que muchas otras empresas de inteligencia artificial hasta la fecha. “Si los [nuevos estándares de privacidad] de Apple Si se acepta y se mantiene en la práctica, entonces podría establecer un estándar que otros operadores de IA deberían respetar”. Dijo Elan. Dijo que eso “haría que muchos otros proveedores y operadores de IA aumenten sus procesos de seguridad y protecciones y adopten salvaguardias similares”.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad