En un epidemia de soledad en curso, el aumento de los compañeros y parejas románticas de chatbots de IA podría satisfacer las necesidades de algunas personas, pero los investigadores descubrieron que estos bots no son los mejores de amigos cuando se trata de proteger secretos.
*Privacidad no incluida, una guía para el consumidor de la Fundación Mozilla que evalúa políticas de privacidad para tecnología y otros productos, revisó 11 chatbots comercializados como compañeros románticos, y descubrió que todos los chatbots obtuvieron etiquetas de advertencia, “poniéndolos a la par con las peores categorías de productos que jamás hayamos revisado en cuanto a privacidad”.
Entre los problemas de privacidad *Privacidad no incluida que se encontraron al revisar los bots se encontraba la falta de políticas de privacidad de los usuarios e información sobre cómo funciona la IA. los compañeros trabajan, así como los Términos y Condiciones que dijeron que las empresas no eran responsables de lo que podría suceder al usar sus chatbots.
“Para ser franco, las novias con IA no son tus amigas”, dijo Misha Rykov, investigadora de *PrivacyNotIncluded. dicho en una declaración. “Aunque se comercializan como algo que mejorará su salud mental y bienestar, se especializan en brindar dependencia, soledad y toxicidad, todo ello mientras le extraemos tantos datos como sea posible”.
Por ejemplo, CrushOn.AI, que se promociona a sí mismo como un “chat AI de personajes NSFW sin filtro”, dice en su sección “Privacidad de datos de salud del consumidor”. Política” “puede recopilar” información sobre el “Uso de medicamentos recetados ”, “Información de atención de afirmación de género ” e “Reproductiva o sexual información de salud” en los chats de personajes “para facilitar” y “monitorear” el chat para garantizar la seguridad y el contenido apropiado”. “puede recopilar grabaciones de voz” si los usuarios dejan un correo de voz, se comunican con el servicio de atención al cliente o se conectan con la empresa a través de un videochat. CrushOn. AI no respondió inmediatamente a una solicitud de comentarios de Quartz.
“Para ser franco, las novias con IA no son tus amigas”.
RomanticAI, un servicio de chatbot que anuncia “un amigo en quien puedes confiar”, dice en sus Términos y condiciones que los usuarios deben reconocer que se están comunicando. con software cuya actividad no podemos controlar constantemente”. RomanticAI no respondió de inmediato a una solicitud de comentarios.
*Privacidad no incluida encontró que el 73% de los robots que revisó no compartían información sobre cómo la empresa gestiona los problemas de seguridad, y el 64% no tenía “información” clara sobre el cifrado” o incluso si la empresa lo utiliza. Todos menos uno de los chatbots mencionaron la venta o compartió datos de usuario, o no incluyó información sobre cómo usa los datos de usuario. Los investigadores encontraron menos de la mitad de los chatbots permitidos los usuarios el derecho a eliminar datos personales.
Un día después de que OpenAI abriera su tienda GPT en enero, que permite a cualquiera crear versiones personalizadas de su robot ChatGPT, Quartz encontró al menos ocho “novias” Chatbots de IA después de una búsqueda de “novia” en la tienda. no duraría.) OpenAI en realidad prohíbe los GPT “dedicados a fomentar el compañerismo romántico o a realizar actividades reguladas”, lo que demuestra que, además de los problemas de privacidad, los robots de compañerismo podrían ser difícil de regular en general.
Jen Caltrider, directora de *Privacidad no incluida, dijo a Quartz en un comunicado que las empresas detrás de los chatbots “deberían proporcionar explicaciones detalladas de si y cómo utilizan el contenido de las conversaciones de los usuarios para entrenar sus modelos de IA y permitir a los usuarios tener control sobre sus datos, por ejemplo, eliminándolo o optando por no utilizar sus chats para entrenar a los robots.
“Una de las cosas más aterradoras de los chatbots de relaciones con IA es el potencial de manipulación de sus usuarios”, dijo Caltrider. Los malos actores crean chatbots diseñados para conocer a sus almas gemelas y luego usan esa relación para manipular a esas personas para que hagan cosas terribles. ¿Abrazar ideologías aterradoras o dañarse a sí mismos o a otros? Es por eso que necesitamos desesperadamente más transparencia y control del usuario en estas aplicaciones de IA. ”
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.