OpenAI y Microsoft dijeron el miércoles que encontraron y cerraron cuentas de OpenAI pertenecientes a “cinco actores maliciosos afiliados al estado” que usaban herramientas de IA, entre ellas ChatGPT, para realizar ciberataques.
Las cuentas cerradas estaban asociadas con el tifón Charcoal (CHROMIUM), afiliado a China, y el tifón Salmon (SODIUM), Crimson Sandstorm (CURIUM), afiliado a Irán, Emerald Sleet (THALLIUM), filial de Corea del Norte, y Forest Blizzard (STRONTIUM), filial de Rusia, según Abierto AI y Inteligencia de amenazas de Microsoft.
“Estos actores generalmente buscaban utilizar los servicios de OpenAI para consultar información de código abierto, traducir, encontrar errores de codificación y ejecutar tareas básicas de codificación”. OpenAI dijo en una declaración. OpenAI dijo que sus “hallazgos muestran que nuestros modelos ofrecen sólo capacidades limitadas e incrementales para tareas de ciberseguridad maliciosas”.
Forrest Blizzard, un actor de inteligencia militar ruso, utilizó modelos en lenguaje grande (LLM, por sus siglas en inglés) para investigar “varias tecnologías de radar y satélite que podrían pertenecer a operaciones militares convencionales en Ucrania”, dijo Microsoft, y para respaldar tareas como la manipulación de archivos “para potencialmente automatizar u optimizar operaciones técnicas”.
Tanto el tifón Charcoal como el tifón Salmon, que tienen “un historial de atacar a contratistas de defensa estadounidenses, agencias gubernamentales y entidades dentro de la tecnología criptográfica”. sector”, utilizó LLM para ejecutar consultas sobre agencias de inteligencia global y varias empresas, generar código e identificar errores de codificación y traducir tareas.
Crimson Sandstorm, Emerald Sleet y ambos actores afiliados a China utilizaron las herramientas de OpenAI para generar contenido para campañas de phishing, dijo OpenAI.
“Los grupos de cibercrimen, los actores que amenazan a los Estados-nación y otros adversarios están explorando y probando diferentes tecnologías de IA a medida que emergen, en un intento de comprender el valor potencial de sus operaciones y los controles de seguridad que pueden necesitar eludir”, afirmó Microsoft.
Aunque la investigación de ambas compañías no encontró “ataques significativos” por parte de actores que utilizan herramientas estrechamente monitoreadas, OpenAI y Microsoft establecieron enfoques adicionales para mitigar los riesgos crecientes de que los actores de amenazas utilicen IA para llevar a cabo tareas similares.
Ambas compañías dijeron que continuarían monitoreando e interrumpiendo las actividades asociadas con los actores de amenazas y trabajarían con otros socios de la industria para compartir información. sobre el uso conocido de la IA por actores malintencionados, e informar al público y las partes interesadas sobre el uso de sus herramientas de IA por partes maliciosas actores.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.