La junta de supervisión de Meta no está de acuerdo con la decisión de la compañía de eliminar dos videos relacionados con la guerra entre Israel y Hamás, uno de rehenes secuestrados de Israel por Hamas, y uno que muestra las secuelas del bombardeo de El hospital Al-Shifa de Gaza por las Fuerzas de Defensa de Israel .
El 7 de diciembre , la junta abrió una revisión acelerada de los dos videos después Meta eliminó las publicaciones por “violar tanto su violencia e incitación y sus organizaciones peligrosas y reglas de individuos» pero poco después las restablecieron. Estos marcaron la primeros casos de emergencia.
El 19 de diciembre la junta dijo que no estaba de acuerdo con la decisión inicial de Meta, al encontrar que “restaurar el contenido a la plataforma, con una pantalla de advertencia ‘marca como perturbadora’, es consistente con Las políticas de contenido, valores y responsabilidades de derechos humanos de Meta» en ambos casos.
La respuesta de Meta a la crisis ante el ataque de Hamás (considerada una organización terrorista en Estados Unidos y en otros lugares) fue reducir el “umbral de expulsión” para contenido violento y gráfico, incluida la eliminación de vídeos en los que se podía identificar a los rehenes. El cambio de política es un problema, pero su implementación impersonal es uno más grande, argumentó la junta de supervisión.
Los miembros de la junta dicen que la IA tiene la culpa
Khaled Mansur, un escritor y activista de derechos humanos quién ha estado en la Junta de Supervisión desde mayo 2022, dijo que las herramientas de inteligencia artificial (IA) tienen la culpa del error de juicio, ya que tanto la decisión de eliminación inicial como el rechazo de la solicitud del usuario Las apelaciones se tomaron automáticamente basándose en la puntuación de un clasificador, sin ninguna revisión humana.
La Junta de Supervisión dijo que “una supervisión humana insuficiente de la moderación automatizada durante la respuesta a una crisis puede llevar a la eliminación incorrecta de discursos que puedan ser de importante interés público», según una publicación de Mansour en X.
Hamás características en la lista de lo que Meta llama “organizaciones e individuos peligrosos” junto con ISIS, el Ku Klux Klan y Hitler. Sin embargo, el sistema automatizado El filtro no es muy bueno para distinguir las publicaciones que discuten o incluso condenan a Hamás de las publicaciones que lo apoyan. Mientras tanto, la herramienta de traducción de Instagram estaba insertando la palabra “terrorista” en la traducción de biografías y subtítulos que incluían la palabra “palestino”, el emoji de la bandera palestina o el término árabe para “Alabado sea Dios”, 404Media reportado En octubre, activistas palestinos preocupados por el algoritmo de Instagram que prohibía en la sombra sus publicaciones inventaron un algohablar término para los palestinos—P*les+in1ans—para eludir la censura automatizada.
El tema ha expuesto prejuicios en el pasado. Tras el conflicto de 2021 entre Israel y Palestina, una informe de diligencia debida solicitado por la Junta de Supervisión encontró que “el contenido árabe tenía una mayor aplicación excesiva”, lo que sugiere que era más probable que Meta lo eliminara. sistemas automatizados de moderación de contenidos.
Citable: Meta necesita estar mejor preparado para moderar contenido en conflicto
“Estamos viendo videos y fotografías, a veces solo de transeúntes o periodistas, que se eliminan y no está claro por qué. para una moderación de contenido más específica del contexto...[H]emos visto suficientes crisis en la última década para tener una idea de algunos patrones y qué tipo de herramientas deberían existir”.
—Marwa Fatafta, Directora de políticas y defensa de los derechos digitales en Access Now, una organización sin fines de lucro de defensa de los derechos digitales
Contenido de la guerra entre Israel y Hamas en Meta, por dígitos
12: Días que la Junta de Supervisión tardó en emitir un veredicto sobre los dos puestos relacionados con la guerra entre Israel y Hamas. Se espera que emita respuestas aceleradas dentro de 30 días.
500%: Un aumento en el antisemitismo y la islamofobia dentro de las 48 horas posteriores al ataque de Hamas del 7 de octubre que interrumpió la guerra, según el Proyecto Global Contra Odio y extremismo
795.000: Piezas de contenido metaeliminadas o marcadas como perturbadoras en los tres días posteriores al 7 de octubre por violar políticas como Organizaciones e individuos peligrosos, Contenido violento y gráfico, discurso de odio, Violencia e incitación, Intimidación y acoso, y Daño coordinado en hebreo y árabe
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.