La junta de supervisión de Meta dice que la IA por sí sola no es suficiente para moderar el contenido de guerra entre Israel y Hamás

Meta necesita más supervisión humana en las decisiones de moderación de contenido, especialmente en publicaciones que no están en inglés

Es posible que se gane una comisión por los enlaces en esta página.
Tomar decisiones defectuosas.
Tomar decisiones defectuosas.
Ilustración: Dado Ruvic (Reuters)

La junta de supervisión de Meta no está de acuerdo con la decisión de la compañía de eliminar dos videos relacionados con la guerra entre Israel y Hamás, uno de rehenes secuestrados de Israel por Hamas, y uno que muestra las secuelas del bombardeo de El hospital Al-Shifa de Gaza por las Fuerzas de Defensa de Israel .

Publicidad

El 7 de diciembre , la junta abrió una revisión acelerada de los dos videos después Meta eliminó las publicaciones por “violar tanto su violencia e incitación y sus organizaciones peligrosas y reglas de individuos» pero poco después las restablecieron. Estos marcaron la primeros casos de emergencia.

El 19 de diciembre la junta dijo que no estaba de acuerdo con la decisión inicial de Meta, al encontrar que “restaurar el contenido a la plataforma, con una pantalla de advertencia ‘marca como perturbadora’, es consistente con Las políticas de contenido, valores y responsabilidades de derechos humanos de Meta» en ambos casos.

Publicidad

La respuesta de Meta a la crisis ante el ataque de Hamás (considerada una organización terrorista en Estados Unidos y en otros lugares) fue reducir el “umbral de expulsión” para contenido violento y gráfico, incluida la eliminación de vídeos en los que se podía identificar a los rehenes. El cambio de política es un problema, pero su implementación impersonal es uno más grande, argumentó la junta de supervisión.

Publicidad

Los miembros de la junta dicen que la IA tiene la culpa

Khaled Mansur, un escritor y activista de derechos humanos quién ha estado en la Junta de Supervisión desde mayo 2022, dijo que las herramientas de inteligencia artificial (IA) tienen la culpa del error de juicio, ya que tanto la decisión de eliminación inicial como el rechazo de la solicitud del usuario Las apelaciones se tomaron automáticamente basándose en la puntuación de un clasificador, sin ninguna revisión humana.

Publicidad

La Junta de Supervisión dijo que “una supervisión humana insuficiente de la moderación automatizada durante la respuesta a una crisis puede llevar a la eliminación incorrecta de discursos que puedan ser de importante interés público», según una publicación de Mansour en X.

Hamás características en la lista de lo que Meta llama “organizaciones e individuos peligrosos” junto con ISIS, el Ku Klux Klan y Hitler. Sin embargo, el sistema automatizado El filtro no es muy bueno para distinguir las publicaciones que discuten o incluso condenan a Hamás de las publicaciones que lo apoyan. Mientras tanto, la herramienta de traducción de Instagram estaba insertando la palabra “terrorista” en la traducción de biografías y subtítulos que incluían la palabra “palestino”, el emoji de la bandera palestina o el término árabe para “Alabado sea Dios”, 404Media reportado En octubre, activistas palestinos preocupados por el algoritmo de Instagram que prohibía en la sombra sus publicaciones inventaron un algohablar término para los palestinos—P*les+in1ans—para eludir la censura automatizada.

Publicidad

El tema ha expuesto prejuicios en el pasado. Tras el conflicto de 2021 entre Israel y Palestina, una informe de diligencia debida solicitado por la Junta de Supervisión encontró que “el contenido árabe tenía una mayor aplicación excesiva”, lo que sugiere que era más probable que Meta lo eliminara. sistemas automatizados de moderación de contenidos.

Citable: Meta necesita estar mejor preparado para moderar contenido en conflicto

“Estamos viendo videos y fotografías, a veces solo de transeúntes o periodistas, que se eliminan y no está claro por qué. para una moderación de contenido más específica del contexto...[H]emos visto suficientes crisis en la última década para tener una idea de algunos patrones y qué tipo de herramientas deberían existir”.

Marwa Fatafta, Directora de políticas y defensa de los derechos digitales en Access Now, una organización sin fines de lucro de defensa de los derechos digitales

Publicidad

Contenido de la guerra entre Israel y Hamas en Meta, por dígitos

12: Días que la Junta de Supervisión tardó en emitir un veredicto sobre los dos puestos relacionados con la guerra entre Israel y Hamas. Se espera que emita respuestas aceleradas dentro de 30 días.

Publicidad

500%: Un aumento en el antisemitismo y la islamofobia dentro de las 48 horas posteriores al ataque de Hamas del 7 de octubre que interrumpió la guerra, según el Proyecto Global Contra Odio y extremismo

795.000: Piezas de contenido metaeliminadas o marcadas como perturbadoras en los tres días posteriores al 7 de octubre por violar políticas como Organizaciones e individuos peligrosos, Contenido violento y gráfico, discurso de odio, Violencia e incitación, Intimidación y acoso, y Daño coordinado en hebreo y árabe

Publicidad

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad