Meta comenzará a etiquetar imágenes generadas por IA en Facebook, Instagram y Threads en los próximos meses, citando “una serie de elecciones importantes” próximamente este año en todo el mundo — incluido en Estados Unidos.
Más de 50 naciones que representan la mitad de la población mundial celebrarán elecciones en 2024, incluida la India, la democracia más grande del mundo, y Rusia, donde está el actual presidente Vladimir Putin seguro de ganar otro término.Antes de estas elecciones críticas, los ojos están puestos en cómo Meta abordará la interferencia electoral y la desinformación en sus plataformas. En noviembre, Meta lanzó un informe
diciéndolo eliminado casi 5.000 cuentas falsas de Facebook originarios de China que estaban detrás de un esfuerzo coordinado para polarizar a los votantes en Estados Unidos y la India antes de las elecciones de este año.Nick Clegg, presidente de Asuntos Globales de Meta, dijo en una declaración
El gigante tecnológico está trabajando con sus socios en la creación de herramientas que puedan detectar contenido generado por IA a través de “marcadores invisibles” en imágenes, como marcas de agua y metadatos. Las empresas de inteligencia artificial, incluidas OpenAI y Midjourney, están comenzando a agregar
metadatos
al contenido generado con sus herramientas. Meta ya etiqueta contenido fotorrealista en sus plataformas creado con su característica de IA.
Para combatir la posibilidad de que los usuarios eliminen estos marcadores invisibles, Clegg dijo que Meta también está desarrollando técnicas para identificar automáticamente el contenido generado por IA y está buscando formas de hacerlo más difícil para las personas eliminar o alterar los marcadores. Clegg señaló los límites del sistema de etiquetado para audio y vídeo generados por IA de otras empresas
, que actualmente no tenemos un sistema para
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.