Facebook limitó gravemente la visibilidad de los medios palestinos tras los atentados del 7 de octubre de 2023, según revela una investigación de la BBC publicada el miércoles 18 de diciembre. Instagram, otra propiedad del grupo Meta, También reforzó la moderación de los comentarios de cuentas palestinas, admitió la empresa, en nombre de la lucha contra el discurso de odio.
Los periodistas árabes de BBC News recopilaron datos sobre la visibilidad de los medios palestinos, israelíes y de habla árabe en los años anteriores y posteriores al ataque del 7 de octubre. Estos datos llamados de “participación”, una métrica que refleja el impacto y la visibilidad de una cuenta en las redes sociales, incluían reacciones, comentarios y acciones. Las cifras recopiladas por la BBC muestran una pérdida muy clara de participación de los medios palestinos desde el 7 de octubre de 2023, a pesar de que otros medios que cubren el conflicto, tanto israelíes como no palestinos de habla árabe, han visto aumentar la suya.
Así, según la BBC, las páginas de Facebook de veinte medios de comunicación palestinos que operan desde la Franja de Gaza o Cisjordania han perdido un 77% de participación pública desde el 7 de octubre. Las visualizaciones de la cuenta de Facebook de Palestina TV habrían caído un 60%, a pesar de sus 5,8 millones de suscriptores. Por el contrario, los veinte medios de comunicación israelíes analizados vieron aumentar su engagement un 37%. Este aumento, impulsado por la cobertura del conflicto, se encontraría en las páginas de una treintena de medios de comunicación de habla árabe analizados, como Al-Jazeera y Sky News Arabia, cuya participación casi se ha duplicado.
Medidas para “responder a un aumento en el contenido de odio”
La prueba de que esta diferencia de visibilidad no se explica únicamente por las dificultades de Facebook para moderar contenidos en lengua árabe. Los “expedientes de Facebook”, documentos internos filtrados en 2021, atestiguan la falta de personal de sus equipos de moderación de habla árabe y el mal funcionamiento de sus algoritmos encargados de reconocer los contenidos que critican el terrorismo. Se equivocaron más de tres de cada cuatro veces, lo que provocó la eliminación de contenido legítimo.
En respuesta a estos datos, Meta Recordó que esta evolución estaba relacionada con los cambios en la política de moderación implementada en octubre de 2023. Estos tenían como objetivo, en particular, la eliminación de contenidos vinculados a Hamás, clasificado como organización terrorista por los Estados Unidos y miembro de la lista de organizaciones e individuos peligrosos de Facebook. Ex empleados de Facebook han criticado la alineación de esta lista con las decisiones de política exterior de Estados Unidos, que potencialmente introducen un sesgo de moderación en los conflictos en el extranjero.
Un empleado de Meta, bajo condición de anonimato, explicó a la BBC que el algoritmo de Instagram también había sido modificado en la semana posterior al 7 de octubre, para endurecer la moderación de los comentarios escritos por cuentas palestinas. Meta confirmó la existencia de este cambio, creyendo que era necesario responder a lo que llamó una “pico de contenido de odio”. Agregó que las políticas de moderación de Instagram que cambiaron al comienzo de la disputa habían vuelto a la normalidad, sin especificar si lo mismo ocurría con los cambios en el algoritmo de Facebook; cuando se le preguntó sobre esto, Meta no fue devuelto a El mundo en el momento de la publicación de este artículo.
No es la primera vez que se acusa a la política de moderación de Meta de ser parcial en el conflicto de Oriente Medio. En diciembre de 2023, la organización Human Rights Watch (HRW) denunció censura “sistémico” Publicaciones pro palestinas en plataformas Meta. El debate también es anterior al 7 de octubre. HRW ya había acusado a Meta de censura en 2021: Meta se comprometió entonces a cambiar sus políticas de moderación. Una promesa que según la organización no se ha cumplido.
Related News :