OpenAI encontró ‘actores maliciosos afiliados al estado’ que usaban ChatGPT para ciberataques

OpenAI y Microsoft dijeron que cerraron cuentas afiliadas al estado utilizando sus herramientas de inteligencia artificial para llevar a cabo ciberataques

Es posible que se gane una comisión por los enlaces en esta página.
Sam Altman, CEO de OpenAI
El director ejecutivo de OpenAI, Sam Altman, testifica ante una audiencia del Subcomité de Privacidad, Tecnología y Ley del Poder Judicial del Senado titulada “Supervisión de la IA: reglas para la inteligencia artificial” ' en Capitol Hill en Washington, EE.UU., 16 de mayo de 2023.
Foto: Elizabeth Frantz (Reuters)

OpenAI y Microsoft dijeron el miércoles que encontraron y cerraron cuentas de OpenAI pertenecientes a “cinco actores maliciosos afiliados al estado” que usaban herramientas de IA, entre ellas ChatGPT, para realizar ciberataques.

Publicidad

Las cuentas cerradas estaban asociadas con el tifón Charcoal (CHROMIUM), afiliado a China, y el tifón Salmon (SODIUM), Crimson Sandstorm (CURIUM), afiliado a Irán, Emerald Sleet (THALLIUM), filial de Corea del Norte, y Forest Blizzard (STRONTIUM), filial de Rusia, según Abierto AI y Inteligencia de amenazas de Microsoft.

“Estos actores generalmente buscaban utilizar los servicios de OpenAI para consultar información de código abierto, traducir, encontrar errores de codificación y ejecutar tareas básicas de codificación”. OpenAI dijo en una declaración. OpenAI dijo que sus “hallazgos muestran que nuestros modelos ofrecen sólo capacidades limitadas e incrementales para tareas de ciberseguridad maliciosas”.

Publicidad

Forrest Blizzard, un actor de inteligencia militar ruso, utilizó modelos en lenguaje grande (LLM, por sus siglas en inglés) para investigar “varias tecnologías de radar y satélite que podrían pertenecer a operaciones militares convencionales en Ucrania”, dijo Microsoft, y para respaldar tareas como la manipulación de archivos “para potencialmente automatizar u optimizar operaciones técnicas”.

Publicidad

Tanto el tifón Charcoal como el tifón Salmon, que tienen “un historial de atacar a contratistas de defensa estadounidenses, agencias gubernamentales y entidades dentro de la tecnología criptográfica”. sector”, utilizó LLM para ejecutar consultas sobre agencias de inteligencia global y varias empresas, generar código e identificar errores de codificación y traducir tareas.

Publicidad

Crimson Sandstorm, Emerald Sleet y ambos actores afiliados a China utilizaron las herramientas de OpenAI para generar contenido para campañas de phishing, dijo OpenAI.

“Los grupos de cibercrimen, los actores que amenazan a los Estados-nación y otros adversarios están explorando y probando diferentes tecnologías de IA a medida que emergen, en un intento de comprender el valor potencial de sus operaciones y los controles de seguridad que pueden necesitar eludir”, afirmó Microsoft.

Publicidad

Aunque la investigación de ambas compañías no encontró “ataques significativos” por parte de actores que utilizan herramientas estrechamente monitoreadas, OpenAI y Microsoft establecieron enfoques adicionales para mitigar los riesgos crecientes de que los actores de amenazas utilicen IA para llevar a cabo tareas similares.

Ambas compañías dijeron que continuarían monitoreando e interrumpiendo las actividades asociadas con los actores de amenazas y trabajarían con otros socios de la industria para compartir información. sobre el uso conocido de la IA por actores malintencionados, e informar al público y las partes interesadas sobre el uso de sus herramientas de IA por partes maliciosas actores.

Publicidad

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad