Un grupo respaldado por Google y Microsoft quiere crear “etiquetas nutricionales” para contenido de IA

La Coalición para la Procedencia y Autenticidad del Contenido espera hacer que las imágenes etiquetadas con IA sean tan comunes como HTTPS en las URL

Es posible que se gane una comisión por los enlaces en esta página.
Imagen con un cuadro a la derecha que muestra los cambios realizados por la IA.
Cómo podría verse una imagen etiquetada con IA.
Imagen: Courtesy of Coalition for Content Provenance and Authenticity

con más de 2 mil millones de votantes Se espera que este año acudan a las urnas en 50 países, según el grupo industrial. Coalición para la procedencia y autenticidad del contenido (C2PA) quiere ser líder en la lucha contra los deepfakes mediante el uso de metadatos y tecnología de procedencia, que rastrea los orígenes de una imagen.

Publicidad

La idea es que el contenido generado por IA debería tener una etiqueta similar a las etiquetas nutricionales para los alimentos, donde no se le prohíba al consumidor comprar un cereal azucarado, pero pueden entrar a la tienda y saber qué contiene y tomar su propia decisión, dijo Andy Parsons, cofundador. de C2PA.

Google anunció el jueves 8 de febrero que se unirá a la coalición, que la industria espera que indique a otros la importancia de etiquetar la IA. contenido creado. El objetivo del grupo, que ahora cuenta con 100 miembros y “mucho interés” es conseguir que todos los medios Credenciales de contenido.

Publicidad

“Si estás en modo de consumo de noticias, deberías esperar que todas tus imágenes, fotografías, paquetes de texto, videos, etc. “tener credenciales de contenido que demuestren que algo viene de donde pretende estar”, dijo. “Así es como se conoce el icono de candado [ visto con HTTPS en la URL en su navegador comenzó. Al principio era la excepción. Y ahora es tan común y esperado. que ya no tienes un ícono de candado”. Al hacerlo, eso podría reducir el potencial de malos actores.

Publicidad

Cómo las empresas tecnológicas están combatiendo las imágenes falsas de los malos actores

No existe una manera única de combatir los deepfakes. Las empresas tecnológicas han estado por delante de los reguladores Cuando se trata de encontrar soluciones, ya sea a través de divulgaciones o marcas de agua. Tiene mucho sentido; siendo las elecciones tan públicas, quieren asegurarse de tener una buena imagen pública.

Publicidad

En 2019, la coalición, co-iniciada por Adobe, nació de la idea de crear un tipo sólido de procedencia de contenido. que conecta los “ingredientes y la receta” con el contenido. Por esa época, se publicó un video que muestra a Nancy Pelosi arrastrando las palabras y sonando ebria. , que era desarrollado utilizando algoritmos de aprendizaje automático, estaba dando vueltas en línea, lo que los inspiró a pensar en marcar cuándo algo fue generado por IA o no. En 2021, Adobe, junto con Empresas como Microsoft y la BBC crearon implementaciones de código abierto destinadas a hacerlo.

Entonces, ¿cómo funciona? El estándar C2PA es evidencia de manipulación de código abierto, por lo que se trata de información sobre qué herramienta, como la IA. o una cámara, hecho algo, que está efectivamente adjunto a una imagen. La tecnología también es de código abierto. Si los metadatos fueron eliminado intencionalmente, seguirá estando claro en el historial y podrá recuperarse a través de la nube. En el frente visual, los consumidores ven un símbolo “CR” en la imagen en el que pueden hacer clic para ver los “ingredientes”.

Publicidad

Pero no existe una regla estricta para las empresas que adoptan estas etiquetas. En 2023, Adobe, que inició el grupo, lanzó su modelo de IA generativa. Firefly, que adjunta las credenciales de contenido de C2PA a cualquier generación de imágenes desde su herramienta de IA generativa Adobe Firefly y ciertas imágenes impulsadas por IA en Photoshop. Microsoft, después, introdujo el uso de credenciales de contenido para etiquetar todas las imágenes generadas por IA creadas a través de Bing Image Creator. OpenAI también, esta semana , solo Imágenes anunciadas generados en ChatGPT incluyen metadatos usando las especificaciones C2PA.

Google aún no tiene una política sobre cómo adoptar etiquetas de IA con sus imágenes. La compañía también señala que existen múltiples Formas de combatir las imágenes falsas, incluida la incorporación de marcas de agua digitales en imágenes y audio generados por IA, divulgaciones de anuncios políticos y etiquetas de contenido de YouTube, que requieren creadores para marcar cuando los videos están alterados o sintéticos.

Publicidad

¿Qué sigue?

C2PA dice que está viendo la adopción por parte de fabricantes de cámaras como Sony y Nikon, que están produciendo cámaras que ofrecer tecnología de autenticación.Parsons dijo que le gustaría ver que los fabricantes de dispositivos móviles se unieran a la coalición y comenzaran a producir etiquetas de IA como parte de los teléfonos, que son usables por los consumidores.

Publicidad

Dado que la IA generativa también produce diferentes modos de contenido, como vídeo, imagen y audio, la coalición también está analizando investigaciones sobre cómo se ve la creación de una etiqueta de IA para audio.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad