Facebook ‘permite que vigilantes en Etiopía inciten a la matanza étnica’ | Facebook

Facebook está bajo un nuevo escrutinio este fin de semana, acusado de continuar permitiendo que los activistas inciten a las masacres étnicas a medida que se intensifica la guerra en Etiopía.

Análisis por Oficina de Periodismo de Investigación (TBIJ) y el Observador encontró que Facebook todavía permite a los usuarios publicar contenido que incita a la violencia a través del odio y la desinformación. Esto a pesar de ser consciente de que ayuda a alimentar las tensiones directamente, lo que genera reclamos de inacción e indiferencia hacia el gigante de las redes sociales.

La investigación rastreó a familiares que vincularon publicaciones de Facebook con los asesinatos de seres queridos. Un destacado miembro de los medios etíopes acusó a la empresa de “permanecer al margen y ver cómo el país se desmorona”.

Las acusaciones se producen en medio de un enfoque cada vez mayor en las decisiones de moderación de contenido por parte de Facebook, previamente acusado de desempeñar un papel en la persecución étnica de los rohingya en Myanmar.

Mark Zuckerberg de Meta reveló el miércoles que el exviceprimer ministro del Reino Unido, Nick Clegg, sería el presidente de asuntos globales, una medida diseñada para ayudar a la compañía renombrada a reparar su reputación luego del testimonio del denunciante Frances Haugen, quien afirmó estar “literalmente avivado”. violencia étnica” en Etiopía.

También se produce cuando Facebook considera iniciar una investigación independiente sobre su trabajo en Etiopía después de que su junta de supervisión lo instó a investigar cómo se había utilizado la plataforma para difundir el discurso de odio.

TBIJ y Observador Los investigadores también entrevistaron a varios verificadores de hechos, organizaciones de la sociedad civil y activistas de derechos humanos en el país. Han descrito el soporte de Facebook mucho menos de lo que debería ser.

Otros dijeron que creían que las solicitudes de asistencia habían sido ignoradas y que las reuniones no se habían materializado.

Estos fracasos, dijeron, han ayudado a alimentar un conflicto en el que miles han muerto y millones han sido desplazados desde que estallaron los combates entre las fuerzas gubernamentales y los grupos armados de oposición en la región de Tigray en noviembre de 2020. han sido acusados ​​de atrocidades.

Rehobot Ayalew, de la iniciativa etíope de verificación de hechos HaqCheckdijo: “La mayoría de las personas tienen poca alfabetización mediática, por lo que Facebook se considera creíble.

nos encontramos [Facebook] imágenes que son contenido horrible y odioso. No recibe soporte de la plataforma en sí, es decir, permite este tipo de contenido.

pueden hacer más [but] no están haciendo nada”.

El ex viceprimer ministro del Reino Unido, Nick Clegg, ha sido nombrado presidente de asuntos globales en el renombrado Meta.
El ex viceprimer ministro británico Nick Clegg ha sido nombrado presidente de asuntos globales en el renombrado Meta. Fotografía: Alamy

Meta rechazó las afirmaciones y dijo que había “invertido en medidas de seguridad” para contrarrestar el odio y el lenguaje ofensivo junto con “pasos agresivos para detener la propagación de la desinformación” en Etiopía.

Entre los casos en los que las familias creen que la continua promoción del odio de Facebook lo hace responsable de asesinatos, se encuentra Gebremichael Teweldmedhin, un joyero de Tigrinya secuestrado hace tres meses en Gonder, una ciudad en la región de Amhara.

Un pariente, que afirmó que Teweldmedhin no era político, dijo que las campañas de odio en línea y los llamados a la violencia, particularmente en Facebook, jugaron un papel clave en su presunto asesinato y muchos otros.

“Lo peor que contribuyó a su asesinato son los llamados activistas que difunden el odio en las redes sociales”, dijo, exigiendo el anonimato.

Algunas publicaciones, dijo, nombrarían personas o incluso publicarían fotos que ayudan a crear una atmósfera “que incita a los ataques, asesinatos y desplazamientos”.

Agregó que le dijeron a la familia que Teweldmedhin, que desapareció después de intentar evitar que una turba saqueara el taller de un nieto, había sido asesinado y enterrado en una fosa común.

La familia de Teweldmedhin citó específicamente a un usuario de Facebook: Solomon Bogale, un activista en línea con más de 86.000 seguidores en Facebook.

Aunque aparece en Facebook como residente de Londres, las redes sociales de Bogale indican que ha estado en Etiopía desde agosto de 2021, con publicaciones que muestran un rifle de asalto a menudo acompañadas de declaraciones que alaban a Fano, un grupo de vigilantes nacionalistas amharianos.

Uno de los miembros de la familia de Teweldmedhin creía que los “postes de ánimo” de Bogale habían provocado muchos ataques contra los Tigres en Gonder. En las semanas previas al asesinato de Teweldmedhin, Bogale pidió a la gente que “limpiara” los territorios de Amhara de la “junta”, un término utilizado por los partidarios del gobierno para referirse a las fuerzas de Tigrinya y Tigris en general.

La publicación continuaba: “¡¡Debemos limpiar la región del linaje de la junta presente antes de la guerra!!”

Según TBIJ, la publicación se pudo encontrar en Facebook casi cuatro meses después, aunque Meta dijo que había “eliminado cualquier contenido que violara nuestras políticas”.

Cuando se contactó a través de Facebook, Bogale negó que los tigres fueran asesinados en Gonder a principios de noviembre y dijo que todos los tigres de la ciudad estaban a salvo. Bogale agregó que eliminará las publicaciones citadas por TBIJ.

Menos de un mes después de la desaparición de Teweldmedhin, Hadush Gebrekirstos, un hombre de 45 años que vive en Addis Abeba, fue arrestado arbitrariamente por la policía que lo escuchó hablar en Tigrinya.

Su cuerpo fue encontrado dos días después, el 26 de noviembre, cerca de la comisaría.

Un pariente dijo que Gebrekirstos no tenía afiliaciones políticas, pero cree que la información errónea publicada en Facebook jugó un papel clave en la causa del asesinato.

“La gente no tiene la capacidad de verificar lo que se ha publicado en Facebook. Cómo llamar a la gente para matar a los residentes de habla tigrinya”, dijeron.

Lo que agrava la preocupación es que, según las revelaciones proporcionadas al Congreso de los EE. UU. por Haugen, Meta conoce los riesgos de tales problemas desde hace años.

En enero de 2019, un informe interno sobre “On-FB Badness”, una medida de contenido malicioso en la plataforma, calificó la situación en Etiopía como “grave”, su segunda categoría más alta.

Casi un año después, Etiopía había subido a la cima de la lista de países en los que tenía que actuar de Facebook.

Una presentación fechada el 10 de diciembre de 2020 calificó el riesgo de violencia social de Etiopía como “grave”: la advertencia de amenaza más alta de Meta y el único país en recibir esa clasificación.

Más de un año después, se supone que la empresa a menudo ignoró las solicitudes de soporte de los verificadores de datos con sede en el país. Algunas organizaciones de la sociedad civil dicen que no se han reunido con la empresa en 18 meses. Varias fuentes le dijeron a la Oficina que Facebook nombró a su primer líder político de alto rango de Etiopía para trabajar en África Oriental recién en septiembre.

Meta opera un programa de verificación de hechos de terceros, que brinda a los socios acceso a herramientas internas y pago por verificación de hechos. Sin embargo, no se ha asociado con una sola organización en Etiopía para abordar la información errónea que rodea el conflicto en el país.

Abel Wabella, fundador de HaqCheck, dijo que Meta no pudo apoyar a su organización a pesar de que se acercó a los ejecutivos por primera vez hace más de un año.

La otra importante organización independiente de verificación de datos de Etiopía, Ethiopia Check, tampoco forma parte del programa de socios de Facebook.

En cambio, Facebook colabora con dos organizaciones de verificación de contenido de Etiopía: PesaCheck, que dirige un pequeño equipo en Nairobi, y Agence France-Presse (AFP), pero ambas tienen su sede fuera del país.

Aunque la información errónea reportada por PesaCheck y AFP a menudo ha sido etiquetada como falsa o eliminada por Facebook, el contenido desacreditado por HaqCheck no se ha visto afectado en gran medida y se difunde libremente.

Esto incluyó afirmaciones falsas de victorias militares en ambos lados, acusaciones falsas de ataques a civiles y afirmaciones falsas de infiltrados capturados.

“Hasta donde yo sé, el apoyo de Facebook a los verificadores de hechos en Etiopía es casi inexistente”, dijo el anciano que trabaja en los medios etíopes, pidiendo el anonimato.

“Facebook no está prestando la atención que Etiopía necesita en este momento crucial, y esto está contribuyendo a la crisis en curso al inflamar el odio y difundir el discurso de odio”.

Varios grupos de la sociedad civil tienen quejas similares de sentirse ignorados y marginados. Facebook celebró una reunión con varios grupos en junio de 2020 para discutir cómo la plataforma podría regular mejor el contenido antes de las elecciones programadas. En noviembre, dos de las organizaciones involucradas dijeron que no habían tenido noticias de ninguna reunión posterior.

Haben Fecadu, un activista de derechos humanos que trabajó en Etiopía, dijo: “Realmente no hay excusas. Dudaba que hubieran invertido lo suficiente en moderación de contenido en África.

Mercy Ndegwa, Directora de Políticas Públicas para el Este y el Cuerno de África de Meta, dijo: “Durante más de dos años, hemos estado invirtiendo en medidas de seguridad en Etiopía, agregando más personal con experiencia local y fortaleciendo nuestra capacidad para capturar el odio y los fuegos contenidos en los idiomas más hablados, incluidos el amárico, el oromo, el somalí y el tigrinya.

“A medida que la situación se intensifica, hemos implementado medidas adicionales y continuamos monitoreando la actividad en nuestra plataforma, identificando problemas a medida que surgen y eliminando rápidamente el contenido que infringe nuestras reglas”.

La compañía agregó que ha trabajado con 80 socios de verificación de datos en más de 60 idiomas para revisar contenido en Facebook, incluidos Pesa Check y AFP.

Informes adicionales de Kat Hall y Zecharias Zelalem

About Meta

Compruebe también

SAS lanza el primer servicio de análisis en la nube en Azure

¿No pudo participar en Transform 2022? ¡Vea todas las sesiones de Summit en nuestra biblioteca …

Deja una respuesta

Tu dirección de correo electrónico no será publicada.