Los deepfakes con IA van a empeorar

Los deepfakes están desdibujando las líneas de la realidad más que nunca y probablemente empeorarán mucho este año.

Por
Es posible que se gane una comisión por los enlaces en esta página.
Imagen para el artículo titulado Los deepfakes con IA van a empeorar
Foto: Kitreel (Shutterstock)

El mundo está siendo destrozado por deepfakes generados por IA, y los últimos intentos mediocres de detenerlos no están haciendo nada. Reguladores federales llamadas automáticas deepfake prohibidas el jueves pasado, como los haciéndose pasar por el presidente Joe Biden en las elecciones primarias de New Hampshire. Mientras tanto, OpenAI y Google lanzaron marcas de agua La semana pasada para etiquetar las imágenes como generadas por IA. Sin embargo, estas medidas carecen de los dientes necesarios para detener los deepfakes de IA.

Publicidad

“Están aquí para quedarse”, dijo Vijay Balasubramaniyan, director ejecutivo de Pindrop, que identificó a ElevenLabs como el servicio utilizado para crear el Biden falso. robocall. “Las tecnologías de detección de deepfake deben adoptarse en la fuente, en el punto de transmisión y en el destino. suceder en todos los ámbitos”.

Los esfuerzos de prevención de deepfake son sólo superficiales

La Comisión Federal de Comunicaciones (FCC) que prohíbe las llamadas automáticas deepfake es un paso en la dirección correcta, según Balasubramaniyan, pero hay una mínima aclaración al respecto. cómo se va a aplicar esto. Actualmente, estamos capturar deepfakes después de el daño hechoy rara vez castigar a los malos actores responsables. Eso es demasiado lento y en realidad no aborda el problema en cuestión.

Publicidad

OpenAI introdujo marcas de agua en las imágenes de Dall-E la semana pasada, tanto visualmente como incrustadas en los metadatos de una fotografía. Sin embargo, la empresa simultáneamente reconoció que esto se puede evitar fácilmente tomando una captura de pantalla. Esto se sintió menos como una solución, y más como si la empresa dijera: “¡Oh, bueno, al menos lo intentamos!”

Mientras tanto, se publican deepfakes del jefe de un trabajador financiero en Hong Kong lo engañó con 25 millones de dólares. Fue un caso impactante que mostró cómo la tecnología deepfake está desdibujando las líneas de la realidad.

Publicidad

El problema de los deepfake sólo va a empeorar 

Estas soluciones simplemente no son suficientes. El problema es que la tecnología de detección de deepfake es nueva y no se está popularizando tan rápido como la generativa. IA. Plataformas como Meta, X e incluso su compañía telefónica deben adoptar la detección de deepfake. Estas empresas están en los titulares sobre todos sus Nuevas funciones de IA, pero ¿qué pasa con sus funciones de detección de IA?

Publicidad

Si estás viendo un video deepfake en Facebook, deberían tener una advertencia al respecto. Si recibes una llamada telefónica deepfake, Su proveedor de servicios debería tener un software para detectarlo. Estas empresas no pueden simplemente levantar las manos en el aire, pero ciertamente están intentando hacer.

La tecnología de detección de deepfake también necesita mejorar mucho y generalizarse mucho más. Actualmente, la detección de deepfake no es 100% precisa para nada , según el director ejecutivo de Copyleaks, Alon Yamin. Su empresa tiene una de las mejores herramientas para detectar texto generado por IA, pero también detección de voz por IA. y el vídeo es otro desafío. La detección de deepfake está rezagada en la IA generativa y necesita acelerarse rápidamente.

Publicidad

Los deepfakes son realmente la nueva desinformación, pero es mucho más convincente. Existe cierta esperanza de que la tecnología y los reguladores se estén poniendo al día para abordar este problema, pero los expertos Estamos de acuerdo en que los deepfakes solo empeorarán antes de mejorar.

Este artículo apareció originalmente en Gizmodo.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad