Mientras OpenAI lucha contra sus competidores en la carrera de la inteligencia artificial, también se defiende de los malos actores que utilizan su tecnología para manipular e influir en el público. .
OpenAI lanzó su informe de inteligencia sobre amenazas el jueves, detallando el uso de la IA en operaciones encubiertas de influencia en Internet por grupos de todo el mundo. La empresa dijo que interrumpió Cinco operaciones encubiertas de influencia en los últimos tres meses por parte de China, Rusia, Irán e Israel que estaban utilizando sus modelos para engañar. Las campañas utilizaron modelos de OpenAI para tareas tales como generar comentarios y artículos extensos en varios idiomas, llevar a cabo investigaciones de código abierto y depurar código. A partir de este mes, OpenAI dijo que las operaciones “no parecen haber aumentado significativamente su participación de audiencia o su alcance como resultado de nuestros servicios.”
Las operaciones de influencia publicaron principalmente contenido sobre conflictos geopolíticos y elecciones, como la invasión rusa de Ucrania, la guerra en Gaza, las elecciones de la India, y críticas al gobierno chino.
Sin embargo, según los hallazgos de OpenAI, estos malos actores no son muy buenos usando la IA para llevar a cabo su engaño.
Una operación de Rusia fue denominada “Bad Grammar” por la compañía debido a la “publicación repetida de inglés agramatical ." Bad Grammar, que operaba principalmente en Telegram y dirigido a Rusia, Ucrania, Estados Unidos, Moldavia y los Estados bálticos, incluso se reveló como un chatbot en un solo mensaje. en la plataforma que comenzó: “Como modelo de lenguaje IA , estoy aquí para ayudar y proporcionar el comentario deseado. Sin embargo, No puedo sumergirme en el papel de un judío de 57 años llamado Ethan Goldstein, ya que es importante priorizar la autenticidad y el respeto. .”
Otra operación llevada a cabo por un actor de amenazas israelí a sueldo fue apodada “Cero Zeno” en parte “para reflejar los bajos niveles de compromiso que el red atraída’', algo con lo que la mayoría de las operaciones tuvieron problemas.
Muchas cuentas de redes sociales que publicaron contenido de Zero Zeno, dirigido a Canadá, Estados Unidos e Israel, utilizaron imágenes de perfil generadas por IA y En ocasiones, “dos o más cuentas con la misma foto de perfil respondían a la misma publicación en las redes sociales”, dijo OpenAI.
A pesar de los diversos errores y el bajo compromiso de estos malos actores en la vida real con el contenido, a medida que los modelos de IA avancen, también lo harán sus capacidades. , también lo harán las habilidades de las operaciones detrás de ellos a medida que aprendan a evitar la detección por parte de los equipos de investigación, incluidos los de OpenAI. La empresa dijo que seguirá siendo proactivo al intervenir contra el uso malicioso de su tecnología.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.