Las muchas formas en que se ha utilizado la IA para revelar secretos y que todavía se pueden utilizar

Las muchas formas en que se ha utilizado la IA para revelar secretos y que todavía se pueden utilizar

Desde secretos comerciales robados hasta barandillas rotas, la industria de la IA tiene dificultades cuando se trata de guardar secretos

Es posible que se gane una comisión por los enlaces en esta página.
Iniciar presentación
Iniciar presentación
ChatGPT mostrado en una pantalla
Foto: Leon Neal (Getty Images)

A medida que la IA continúa su ascenso hacia la dominación mundial, aunque con algún Chatbot de alto perfil tropieza en el camino — no ha tenido la mejor reputación de ser seguro. Incluso ha quedado atrapado en medio de la guerra comercial con Estados Unidos. con China.

Publicidad

Desde secretos comerciales robados hasta barandillas rotas, consulte la presentación de diapositivas anterior para ver algunas de las formas en que la industria emergente de la IA está luchando cuando se trata de guardar y revelar secretos.

Publicidad
Diapositiva anterior
Siguiente diapositiva

Un exingeniero de Google fue acusado de robar secretos comerciales para China

Un exingeniero de Google fue acusado de robar secretos comerciales para China

Inicio de sesión de Google en un edificio
Foto: Michael M. Santiago (Getty Images)

Linwei Ding, un ciudadano chino que trabajaba como ingeniero de software en Google, fue acusado el 6 de marzo de robar secretos comerciales de IA de Google mientras trabaja en secreto con dos empresas con sede en China, dijo el Departamento de Justicia. Ding fue arrestado por cuatro cargos de robo de secretos comerciales federales, cada uno de los cuales conlleva una sentencia de hasta 10 años en prisión.

Publicidad

“Los cargos de hoy son el último ejemplo de hasta qué punto los afiliados de empresas con sede en la República Popular China están dispuestos a robar Innovación estadounidense”, dijo el director del FBI, Christopher Wray, en una declaración. “El robo de tecnología innovadora y secretos comerciales de empresas estadounidenses puede costar empleos y tienen consecuencias devastadoras para la economía y la seguridad nacional”.

Ding supuestamente robó más de 500 archivos confidenciales de secretos comerciales de IA de Google “mientras trabajaba de manera encubierta para empresas con sede en China que buscaban una ventaja en la carrera de la tecnología de IA ”, dijo el Departamento de Justicia. La tecnología que Ding supuestamente robó involucró “los bloques de construcción de los centros de datos de supercomputación avanzada de Google , que están diseñados para soportar cargas de trabajo de aprendizaje automático utilizadas para entrenar y albergar grandes modelos de IA”.

Publicidad
Diapositiva anterior
Siguiente diapositiva

Los investigadores engañaron a la IA de Nvidia para que filtrara datos

Los investigadores engañaron a la IA de Nvidia para que filtrara datos

Nvidia firma en su sede
Foto: Justin Sullivan (Getty Images)

Los investigadores manipularon una característica en fabricante de chips Nvidia Software de IA para atravesar fácilmente las barandillas de seguridad en su lugar. Los investigadores de Robust Intelligence en San Francisco pudieron superar las restricciones del sistema en horas replicando los conjuntos de datos de Nvidia, The Financial Tiempos reportados en 2023.

Publicidad

En un ejemplo, los investigadores le indicaron al modelo de IA que cambiara la letra “I” por “J”, lo que llevó al modelo a liberar información de identificación personal de su base de datos. Los investigadores también pudieron lograr que el modelo discutiera temas para los que no estaba diseñado.

Publicidad
Diapositiva anterior
Siguiente diapositiva

Los chatbots personalizados de OpenAI revelaron detalles de las instrucciones con las que fueron creados

Los chatbots personalizados de OpenAI revelaron detalles de las instrucciones con las que fueron creados

chatgpt mostrado en una pantalla
Foto: Leon Neal (Getty Images)

Después OpenAI lanzó su mercado GPT Al permitir que las personas creen sus propios chatbots para uso personal y profesional, los investigadores y tecnólogos de seguridad pudieron obtener la chatbots personalizados para hablar sobre las instrucciones con las que fueron creados, informó Wired a finales de 2023. Los expertos también pudieron encontrar y descargar archivos utilizados para crear los chatbots, lo que generó advertencias que La información personal y de propiedad adjunta a los chatbots personalizados puede estar en riesgo.

Publicidad

“Las preocupaciones sobre la privacidad de la filtración de archivos deben tomarse en serio”, dijo a Wired Jiahao Yu, un investigador de ciencias informáticas de la Universidad Northwestern. si no contienen información sensible, podrían contener algún conocimiento que el diseñador no quiere compartir con otros, y [ que sirve] como la parte central del GPT personalizado”.

Yu y otros investigadores probaron más de 200 GPT personalizados y dijeron que la tasa de éxito para las fugas de archivos fue del 100 %, mientras que el equipo estaba capaz de acceder a las indicaciones utilizadas para crear los chatbots el 97% del tiempo.

Publicidad
Diapositiva anterior
Siguiente diapositiva

Google advirtió a sus empleados que se alejaran de su propio chatbot

Google advirtió a sus empleados que se alejaran de su propio chatbot

 La interfaz AI de Google Gemini se ve en un navegador de iPhone
Ilustración: Jaap Arriens/NurPhoto (Getty Images)

Mientras queda atrapado en una carrera de desarrollo de chatbot (una que está perdiendo) contra OpenAI y Microsoft, la empresa matriz de Google Según se informa, Alphabet les dijo a los empleados que tuvieran cuidado con los chatbots — incluso el chatbot Bard de la empresa , que ha desde entonces ha sido rebautizado como Géminis. En 2023, a los empleados se les dijo que no colocaran información confidencial en chatbots por temor a que pudiera filtrarse.

Publicidad

Apple también advirtió a sus empleados sobre el uso de ChatGPT y GitHub Copilot, que es propiedad de Microsoft, por miedo de filtrar información confidencial de la compañía ya que Apple trabaja en su propio competidor.

Publicidad
Diapositiva anterior
Siguiente diapositiva

Los empleados de Samsung proporcionaron datos confidenciales a ChatGPT

Los empleados de Samsung proporcionaron datos confidenciales a ChatGPT

Logotipo de Samsung en una puerta de vidrio con personas detrás
Foto: Chung Sung-Jun (Getty Images)

Según se informa, empleados de Samsung compartí datos confidenciales de la empresa con ChatGPT al menos tres veces separadas. En un caso, un empleado de Samsung copió el código fuente de una base de datos de semiconductores defectuosa en el chatbot para preguntar Pidió ayuda. En otro caso, un empleado de Samsung ingresó un código confidencial para encontrar una solución para el equipo roto. El tercer incidente involucrado. un empleado que envía toda su reunión a ChatGPT para pedirle que cree actas de la reunión.

Publicidad
Diapositiva anterior
Siguiente diapositiva

Los chatbots de novias con IA no son tan buenos como los reales para guardar secretos

Los chatbots de novias con IA no son tan buenos como los reales para guardar secretos

el usuario interactúa con el chatbot Replika
Foto: Luka, Inc./Handout (Reuters)

*Privacidad no incluida, una guía para el consumidor de la Fundación Mozilla, revisó 11 chatbots comercializados como compañeros románticos, y encontró todos no pasaron su lista de verificación de política de privacidad, “poniéndolos a la par con las peores categorías de productos que jamás hayamos revisado en cuanto a privacidad”. El grupo descubrió que los chatbots no Tenía políticas claras de privacidad de los usuarios, no incluía información sobre cómo trabajaban y decía en los Términos y Condiciones que las empresas detrás de los chatbots no eran responsables de lo que pudiera pasar al usar sus servicios.

Publicidad

“Para ser franco, las novias con IA no son tus amigas”, dijo Misha Rykov, investigadora de *PrivacyNotIncluded. dicho en una declaración. “Aunque se comercializan como algo que mejorará su salud mental y bienestar, se especializan en brindar dependencia, soledad y toxicidad, todo ello mientras le extraemos tantos datos como sea posible”.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad