OpenAI está en escrutinio en la Unión Europea otra vez — esta vez terminó Las alucinaciones de ChatGPT sobre personas.
Un grupo sin fines de lucro que defiende los derechos de la privacidad llamado Noyb presentó una queja el lunes ante la Autoridad de Protección de Datos de Austria (DPA) contra la empresa de inteligencia artificial en en nombre de un individuo por su incapacidad para corregir la información generada por ChatGPT sobre las personas.
Aunque alucinaciones, o la tendencia de modelos en lenguajes grandes (LLM) como ChatGPT a inventar información falsa o sin sentido, son comunes, las quejas de Noyb sobre el Reglamento General de Protección de Datos de la UE (GDPR).regula cómo los datos personales de las personas del bloque se recoge y almacena.
A pesar de los requisitos del GDPR, “OpenAI admite abiertamente que no puede corregir información incorrecta en ChatGPT”, dijo Noyb en una declaración, agregando que la empresa tampoco “puede decir de dónde vienen los datos o qué datos ChatGPT almacena sobre personas individuales , y que es “muy consciente de este problema, pero no parece importarle”.
Según el RGPD, las personas en la UE tienen derecho a que se corrija información incorrecta sobre ellos, lo que hace que OpenAI no cumpla con las regla debido a su incapacidad para corregir los datos, dijo Noyb en su denuncia.
Si bien las alucinaciones “pueden ser tolerables” para las tareas, Noyb dijo que son “inaceptables” cuando se trata de generar información sobre las personas. En el caso de Noyb contra OpenAI es un individuo público que preguntó a ChatGPT sobre su cumpleaños, pero “repetidamente se le proporcionó información incorrecta”, según Noyb. OpenAI entonces supuestamente “rechazó su solicitud de rectificar o borrar los datos, argumentando que no era posible corregirlos”. , OpenAI supuestamente le dijo al denunciante que podía filtrar o bloquear los datos en ciertas indicaciones, como el nombre del denunciante.
El grupo está pidiendo a la DPA que investigue cómo OpenAI procesa los datos y cómo la empresa garantiza datos personales precisos en la formación de sus LLM. Noyb también está pidiendo a la DPA que ordene a OpenAI que cumpla con la solicitud del denunciante de acceder a los datos. justo bajo el RGPD que exige a las empresas para mostrar a las individuos qué datos tienen sobre ellos y cuáles son las fuentes de los datos.
OpenAI no respondió inmediatamente a una solicitud de comentarios.
“La obligación de cumplir con las solicitudes de acceso se aplica a todas las empresas”, afirmó Maartje de Graaf, abogado de protección de datos de Noyb, en un declaración. “Es claramente posible mantener registros de datos de entrenamiento que se utilizaron al menos tener una idea sobre las fuentes de información .Parece que con cada ‘innovación’, otro grupo de empresas piensa que sus productos no tienen que cumplir la ley”.
No cumplir con las reglas del GDPR puede dar lugar a sanciones de hasta 20 millones de euros o el 4% de la facturación anual global —cualquiera que sea el valor más alto—e incluso más daños si los individuos deciden buscarlos. OpenAI ya se enfrenta a casos similares de protección de datos en los estados miembros de la UE Italia y Polonia.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.