OpenAI está abordando un problema cada vez más apremiante: las imágenes falsas generadas por su propia tecnología.
La empresa de IA anunció el martes que lanzará una herramienta para detectar contenido creado por su DALL-E 3 generador de texto a imagen. La compañía también dijo que está abriendo aplicaciones para un primer lote de probadores para su clasificador de detección de imágenes, que predice la probabilidad de que una imagen sea generada» por su DALL-E 3.
“Nuestro objetivo es permitir la investigación independiente que evalúe la eficacia del clasificador, analice su aplicación en el mundo real, plantee consideraciones relevantes para dicho uso y y explora las características del contenido generado por IA”, dijo OpenAI en una declaración.
OpenAI dijo que las pruebas internas de una versión temprana de su clasificador mostraron una alta precisión para detectar diferencias entre imágenes no generadas por IA y contenido creado. por DALL-E 3. La herramienta detectó correctamente el 98 % de las imágenes generadas por DALL-E 3, mientras que menos del 0,5 % de las no generadas por IA Las imágenes fueron identificadas incorrectamente como generadas por IA.
Las ediciones de imágenes, como la compresión, el recorte y la saturación, tienen un “impacto mínimo” en el rendimiento de la herramienta, según OpenAI. Sin embargo, la La empresa dijo que otros tipos de modificaciones “pueden reducir el rendimiento”. La empresa también descubrió que su herramienta no funciona tan bien a la hora de distinguir entre las imágenes generadas por DALL-E 3 y el contenido generado por otros modelos de IA.
“La preocupación por las elecciones está impulsando absolutamente gran parte de este trabajo”, dijo David Robinson, jefe de planificación de políticas de OpenAI. le dijo al Wall Street Journal“Es el contexto de preocupación número uno del que escuchamos a los formuladores de políticas”.
Una encuesta de votantes estadounidenses realizada en febrero por el AI Policy Institute encontró que el 77% de los encuestados dijo que cuando se trata de generadores de video de IA — como Sora de OpenAI, que no está disponible al público —Es más importante implementar barandillas y salvaguardas para evitar el mal uso. en lugar de hacer que los modelos estén más ampliamente disponibles. Más de dos tercios de los encuestados dijeron que los desarrolladores de modelos de IA deberían ser considerados legalmente responsables de cualquier actividad ilegal.
“Esto realmente indica cómo el público se está tomando en serio esta tecnología”, dijo Daniel Colson, fundador y director ejecutivo de AIPI. “Creen que es poderoso. Han visto la forma en que las empresas de tecnología implementan estos modelos, algoritmos y tecnologías, y esto conduce a una resultados que transforman la sociedad”.
Además de lanzar su herramienta de detección, OpenAI dijo el martes que se unirá al Comité Directivo de C2PA, o la Coalición para la Procedencia del Contenido. y Autenticidad, que es una Estándar ampliamente usado para certificar contenido digital. La empresa dijo que comenzó a agregar metadatos C2PA a las imágenes generadas y editadas por DALL-E 3 en ChatGPT y su API a principios de este año. año, e integrará metadatos C2PA para Sora cuando se publique ampliamente.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.