Hola miembros de Quartz:
Nadie ha explicado de dónde vienen los nombres, pero son espléndidos: Charcoal Typhoon, Salmon Typhoon, Crimson Sandstorm, Emerald Sleet y Ventisca del bosque.
Aunque parezca que les gusten los fenómenos climáticos exóticos, en realidad lo son. malicioso afiliado al estado usuarios de los servicios de OpenAI. El término técnico para ellos, en la declaración de OpenAI de principios de esta semana, son “actores de amenazas». Ahora todas sus cuentas han sido deshabilitadas, pero no antes de los expertos en ciberseguridad una medida de quiénes eran y qué tipo de daño buscaban perpetrar (más sobre esto a continuación).
La naturaleza de estos actores de amenazas no es desconocida. Quizás los recuerdes de varias precuelas: La ciberinterferencia rusa en las elecciones estadounidenses de 2016, por ejemplo, o el Ataques de ransomware desde Irán en 2021. Pero sus capacidades se han visto enormemente mejoradas ahora gracias al tipo de modelos en grandes lenguajes (LLM) y las herramientas de inteligencia artificial generativa que las empresas como la compilación OpenAI.
Los expertos en ciberseguridad ya han visualizado algunas formas en las que los piratas informáticos y los actores maliciosos se benefician de los LLM. Los volúmenes de datos que un modelo de IA Los escaneos de can son exponencialmente más grandes que cualquier cosa que un humano o un programa de software de segundo orden pueda hacer. “Los algoritmos de IA pueden entrenarse para generar polimórficos malware que muta constantemente su código, lo que hace que sea difícil para el software antivirus detectarlo y bloquearlo”, Amani Ibrahim, experto en ciberseguridad, escribió en LinkedIn El pasado mes de septiembre”. [U]n ataques adversarios pueden eludir las medidas de seguridad, como los sistemas de detección de intrusiones o los escáneres de malware, al generar entradas maliciosas que son indistinguibles de los legítimos».
Es como si estuviera mirando hacia el futuro, porque eso era exactamente lo que Salmon Typhoon y las otras cuatro entidades estaban haciendo en su mal uso. de OpenAI.
TODA LA TRAVESÍA
¿Qué intentaban lograr estos actores de amenazas meteorológicas?
🌲 Ventisca del bosque es un actor de inteligencia militar ruso que ha apuntado a organizaciones de defensa, gubernamentales, sin fines de lucro y de TI durante el transcurso de la guerra de Ucrania. utilizó LLM para manipular archivos y agilizar sus operaciones técnicas, pero también para descubrir más sobre las capacidades de los satélites y las tecnologías de radar.
🐠 Tifón Salmón, un actor de amenazas chino, implementa malware que le da acceso remoto a sistemas comprometidos. Utilizó LLM para “traducir documentos” técnicos, recuperar información disponible públicamente sobre múltiples agencias de inteligencia y actores de amenazas regionales, ayudar con la codificación e investigar formas comunes en que los procesos podrían ocultarse un sistema” OpenAI dijo.
◼️ Tifón de carbón, otro actor chino, utilizó los servicios de OpenAI para la investigación y la depuración de códigos, y para crear contenido que se utilizaría en campañas de phishing.
🌧️ Aguanieve Esmeralda es una entidad de Corea del Norte que envía correos electrónicos de phishing a destacados expertos en Corea del Norte, con miras a comprometer o recopilar información de inteligencia. de ellos. Utilizó OpenAI LLM para identificar a dichos expertos, así como para redactar contenido para sus expediciones de phishing.
🟥 Tormenta de arena carmesí, una entidad iraní conectada con el Cuerpo de Guardia Revolucionaria Islámica, también generó contenido para correos electrónicos de phishing. Además, utilizó LLM para investigar formas en el que el malware podría pasar desapercibido.
UN GRAN NÚMERO
300: El número de actores de amenazas únicos que Pistas de inteligencia de amenazas de Microsoft. Esto incluye 160 actores de nación estado y 50 grupos de ransomware.
EL PISTOLA SE APAGA
Quizás algún día recordaremos las revelaciones de esta semana sobre los tifones, las tormentas de arena, el aguanieve y la ventisca como algo así como la pistola de salida. : el comienzo de una carrera armamentista de la IA. A medida que los atacantes cibernéticos coopten modelos de IA complejos, empresas como OpenAI tendrán que construir más Hay modelos complejos que todavía están por llegar a la cima, lo que a su vez incita a los ciberatacantes a cooptarlos... Ya entiendes la idea.
Este es, por supuesto, un excelente negocio para las propias empresas. Dado que también crearán soluciones a estos problemas de ciberseguridad, de repente estar en el negocio de proporcionar la enfermedad así como la cura, por así decirlo. Y esto es incluso antes de que los LLM hayan sido utilizado por actores maliciosos de una manera verdaderamente original. Ahora mismo, como le dijo Joseph Thacker, un ingeniero de IA, al sitio web de noticias sobre ciberseguridad Lectura oscura, los piratas informáticos utilizan la IA simplemente para acelerar su procesamiento y ampliar su escala.
“Si un actor de amenazas encontrara un caso de uso novedoso, todavía podría estar oculto y no ser detectado por estas empresas todavía, así que “No es imposible”, dijo Thacker. “He visto agentes de IA totalmente autónomos que pueden ‘piratear’ y encontrar vulnerabilidades reales, así que si algún actor malo hubiera desarrollado algo similar, sería peligroso”.
A partir de ahora, OpenAI dijo en su declaración, su modelo GPT-4 ofrece sólo “capacidades incrementales limitadas para tareas de ciberseguridad maliciosas más allá de lo ya se puede lograr con herramientas disponibles públicamente y sin tecnología de inteligencia artificial”. No se dijo el punto obvio. Habrá un GPT-5, luego un GPT-6, y más allá. Eventualmente, sin duda, Thacker encontrará su caso de uso verdaderamente novedoso para un ciberataque impulsado por IA.
UNA 💻 COSA
Lo que la IA quita con una mano, lo da con la otra. Los hackers chinos han estado intentando introducirse en el transporte y la infraestructura estadounidenses redes de manera sigilosa, y la IA ha ayudado a los investigadores de la inteligencia estadounidense a rastrear estos ataques. Estas incursiones digitales, dijo un funcionario en enero, de lo contrario han sido demasiado difíciles para que un ser humano los detecte. Su modus operandi particular es pasar como tráfico “ordinario” en las redes objetivo, pero dejan patrones iguales. Y si hay algo que las herramientas de IA hacen bien es detectar patrones; está en el corazón de cómo aprenden los LLM y para qué están capacitados. Pero tales herramientas de ciberseguridad basadas en IA son costosas y los expertos están preocupados que algunas empresas y gobiernos no podrán costearlos y otros sí, creando una nueva “línea de pobreza AI” en el proceso. .
¡Gracias por leer! Y no dude en enviarnos comentarios, preguntas o temas sobre los que desee saber más.
Que tengas un fin de semana libre de malicia,
—Samanth Subramanian, editor del resumen de fin de semana
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.