Meta, la empresa matriz de Facebook, contribuyó a la comisión de abusos graves contra los derechos humanos de la comunidad tigriana en Etiopía, afirma Amnistía Internacional en un nuevo informe publicado hoy.
“Sentencia de muerte para mi padre”: Contribución de Meta a los abusos contra los derechos humanos en el norte de Etiopía, muestra cómo, una vez más, Meta ha eludido tomar medidas adecuadas para detener la difusión de contenidos que hacen apología del odio y la violencia, en esta ocasión dirigidos contra la población tigriana durante el conflicto armado que se libró en el norte de Etiopía entre noviembre de 2020 y noviembre de 2022.
Tres años después de su alarmante inacción en Myanmar, Meta ha contribuido una vez más —a través de los algoritmos que configuran sus contenidos y su modelo empresarial ávido de datos— a la comisión de abusos graves contra los derechos humanos.
Agnès Callamard, secretaria general de Amnistía Internacional
Amnistía Internacional ya ha puesto de relieve anteriormente la contribución de Meta a la comisión de violaciones de derechos humanos contra la población rohinyá en Myanmar, y ha advertido de la reiteración de estos daños si el modelo empresarial y los algoritmos que configuran los contenidos de Meta no se sometían a una profunda reforma.
“Tres años después de su alarmante inacción en Myanmar, Meta ha contribuido una vez más —a través de los algoritmos que configuran sus contenidos y su modelo empresarial ávido de datos— a la comisión de abusos graves contra los derechos humanos. Ya antes de estallar el conflicto en el norte de Etiopía, organizaciones de la sociedad civil y personas expertas en derechos humanos advirtieron en reiteradas ocasiones de que Meta podía contribuir a la violencia en el país, y rogaron a la empresa que tomara medidas significativas”, ha afirmado Agnès Callamard, secretaria general de Amnistía Internacional.
“Sin embargo, Meta hizo caso omiso de estas advertencias y no tomó medidas de mitigación adecuadas, ni siquiera después de estallar el conflicto. En consecuencia, Meta ha vuelto a contribuir a la comisión de abusos graves contra los derechos humanos, en esta ocasión perpetrados contra la comunidad tigriana.”
La plataforma de Facebook es una fuente de información importante para muchas personas en Etiopía, que la consideran una fuente de noticias fidedigna. Los algoritmos de Facebook fomentaron efectos devastadores para los derechos humanos al amplificar los contenidos nocivos dirigidos contra la comunidad tigriana en Facebook durante el conflicto armado.
La contribución de Meta a la comisión de abusos contra los derechos humanos
La investigación de Amnistía Internacional ha establecido que los sistemas de algoritmos de Facebook sobrecargaron la difusión de retórica nociva dirigida contra la comunidad tigriana, en tanto que los sistemas de moderación de contenido de la plataforma no detectaron adecuadamente esos contenidos ni respondieron a ellos.
Esta inacción contribuyó en última instancia al homicidio del profesor universitario de química tigriano Meareg Amare. Amare murió a manos de un grupo de hombres tras difundirse en Facebook publicaciones dirigidas contra su persona el 3 de noviembre de 2021.
Supe que sería una condena a muerte para mi padre.
Abrham Meareg a Amnistía Internacional
Las publicaciones de Facebook contenían su nombre, su fotografía, su lugar de trabajo y su dirección particular, afirmaban que era simpatizante del Frente Popular de Liberación de Tigré (FPLT) y lo acusaban de robar grandes cantidades de dinero. Su familia rechazó estas afirmaciones.
Su hijo, Abrham Meareg, cree que estas publicaciones hostiles en Facebook contribuyeron a la muerte de su padre.
“Supe que sería una condena a muerte para mi padre”, dijo Abrham Meareg a Amnistía Internacional.
En esas fechas se libraba el conflicto armado en el norte de Etiopía entre el FPLT, las fuerzas federales etíopes y otros grupos armados.
Documentos internos de Meta examinados por Amnistía Internacional muestran que Meta conocía las insuficiencias de sus medidas de mitigación en Etiopía y los riesgos que esto suponía en un país en el que, según la propia empresa, existía un alto riesgo de violencia. Un documento interno de Meta de 2020 advertía que “las estrategias de mitigación actuales no son suficientes” para detener la difusión de contenidos nocivos en la plataforma de Facebook en Etiopía.
Además de amplificar los contenidos nocivos, el escaso tiempo de respuesta de Meta y su negativa a retirar contenidos denunciados hicieron que múltiples personas entrevistadas por Amnistía Internacional manifestaran su convicción de que no tenía sentido denunciar los contenidos a la empresa.
La difusión masiva de estas publicaciones incitó a la violencia y la discriminación contra la comunidad tigriana y agravó una situación que ya estaba a punto de estallar debido a las importantes tensiones étnicas.
Agnès Callamard
Meta recibió múltiples advertencias, tanto antes del conflicto como durante su desarrollo, de organizaciones de la sociedad civil, personas expertas en derechos humanos y su propio Comité de Supervisión de Facebook, que recomendaron que Meta llevara a cabo una evaluación independiente del impacto en los derechos humanos en Etiopía en 2021.
“La difusión masiva de estas publicaciones incitó a la violencia y la discriminación contra la comunidad tigriana y agravó una situación que ya estaba a punto de estallar debido a las importantes tensiones étnicas”, ha declarado Agnès Callamard.
*Gelila, miembro de una organización de la sociedad civil etíope, formó parte del programa “Trusted Partner” (socio de confianza) —iniciativa cuya finalidad es proporcionar a grupos seleccionados de la sociedad civil un canal designado para alertar a Meta sobre contenidos perjudiciales en sus plataformas—, y declaró que la inacción de Facebook respecto a las alertas hizo que se deteriorara aún más la situación de los derechos humanos en el país.
“Como persona que lleva mucho tiempo en Etiopía, puedo afirmar que Facebook está haciendo que las comunidades sean más vulnerables a los conflictos entre ellas”, declaró Gelila.
“Son extremadamente lentos a la hora de reaccionar. No tienen sensibilidad sobre lo que se dice; creo que tienen normas que están muy lejos de lo que ocurre sobre el terreno.”
Meta debe tomar medidas urgentes para mitigar de forma adecuada los riesgos que plantea la plataforma de Facebook en Etiopía, país que hace frente a otra crisis de seguridad en la región de Amhara.
Esto es fundamental, máxime teniendo en cuenta que personal de investigación designado por la ONU ha advertido de la posibilidad de que se cometan crímenes atroces en el futuro, una preocupación de la que se ha hecho eco después la asesora especial de la ONU para la prevención del terrorismo, que ha advertido del aumento del riesgo de genocidio y de crímenes atroces conexos en las regiones de Tigré, Amhara, Afar y Oromia.
Falta reiterada de respeto por los derechos humanos
Los algoritmos de Meta que configuran los contenidos están diseñados para maximizar la interacción de las personas que usan la plataforma con el fin de presentar anuncios publicitarios selectivos, y su resultado es que estimulan contenidos incendiarios, nocivos y polarizadores que tienden a atraer la máxima atención de quienes usan la plataforma.
En 2018, Meta estableció el algoritmo de actualización de noticias en base a una nueva métrica denominada “interacciones sociales significativas”, en un presunto intento de “arreglar Facebook”.
Sin embargo, el análisis realizado por Amnistía Internacional de datos contenidos en los Papeles de Facebook —los documentos internos de Meta revelados por la denunciante de irregularidades Frances Haugen en 2021— indica que este cambio no “arregló” los problemas asociados a los algoritmos de Facebook; antes al contrario, los algoritmos continuaron programados para conseguir la máxima interacción, y por consiguiente favoreciendo de forma desproporcionada los contenidos incendiarios, incluida la apología del odio.
En un documento de los Papeles de Facebook de 2021, hay datos que indican que el director ejecutivo de Meta, Mark Zuckerberg, intervino personalmente para detener la aplicación de medidas de mitigación en países de alto riesgo como Etiopía, porque las medidas podrían haber interferido en la métrica de las interacciones sociales significativas.
Los principios básicos del modelo empresarial de Meta basado en la interacción no han cambiado, por lo que la empresa sigue representando un peligro importante y constante para los derechos humanos, sobre todo en entornos afectados por conflictos.
Remediar la situación: la responsabilidad de Meta de proporcionar reparación
Meta tiene la responsabilidad de proporcionar reparación por los abusos contra los derechos humanos a los que ha contribuido en Etiopía.
Es necesario introducir reformas urgentes y de gran alcance para garantizar que Meta no contribuye de nuevo a causar estos daños en Etiopía ni en ningún otro país.
Esto incluye implementar medidas “de emergencia” —las medidas que Meta puede adoptar en contextos de crisis para reducir el poder de la amplificación algorítmica— en situaciones de alto riesgo tan pronto como se planteen y garantizar la igualdad y la coherencia entre jurisdicciones en cuanto a la dotación de recursos de moderación de contenido, política y equipos de derechos humanos en todo el mundo.
Los Estados deben cumplir su obligación de proteger los derechos humanos introduciendo y aplicando leyes para frenar eficazmente el modelo empresarial de las grandes empresas tecnológicas.. Esto incluye prohibir la publicidad selectiva basada en prácticas de rastreo invasivas.
De igual modo, las grandes empresas tecnológicas también tienen la responsabilidad de respetar los derechos humanos con independencia de las obligaciones de los Estados y, cuando no lo hagan, deben rendir cuentas por las violaciones de derechos humanos que hayan causado o a las que hayan contribuido. Meta rechazó las conclusiones. Su respuesta se refleja en el informe.
“Mi padre no tenía una cuenta de Facebook, pero lo asesinaron en Facebook.”
Esta es su historia.
Abrham Meareg, hijo de un académico tigriano que fue asesinado tras ser objeto de ataques en publicaciones de Facebook, es uno de los demandantes de la empresa tecnológica ante el Tribunal Superior de Kenia. Abrham comunicó a Facebook las amenazas contra su padre y pidió que retiraran esas publicaciones, pero Facebook no lo hizo hasta ocho días después de que su padre fuera asesinado.
Me llamo Abrham Meareg, mi padre era el profesor Meareg Amare Abrha de la Universidad de Bahir Dar, Etiopía. Era un profesor universitario muy respetado en el país. También era un hombre de familia, con esposa y cuatro hijos. Formábamos una familia feliz que vivía entre la comunidad de habla amárica a pesar de ser tigrianos. Mi padre convivió durante 40 años con personas de habla amárica con absoluta paz y respeto. Su prestigio nacional le convirtió en un objetivo. Los días 9 y 10 de octubre de 2021, en la página BDU STAFF de Facebook, que cuenta con 50.000 seguidores, aparecieron dos publicaciones en las que se mostraban fotos de mi padre y la dirección de nuestro domicilio. En la publicación y en los comentarios que generó se hacía referencia a él diciendo que era una persona corrupta, simpatizante del partido político Frente Popular de Liberación de Tigré (FPLT) y que había huido a Estados Unidos tras trasladar a su familia a Adís Abeba. Todas esas afirmaciones eran falsas.
El conflicto armado del norte de Etiopía
En aquel momento, Etiopía estaba inmersa en un conflicto armado en el norte del país en el que participaban las Fuerzas Federales Etíopes, el FPLT y otros grupos armados. Ese conflicto se caracterizó por un aumento de los mensajes en Internet que incitaban a la violencia y al uso de insultos racistas contra los tigrianos. En cuanto vi las publicaciones, supe que serían una condena a muerte para mi padre. Facebook es una plataforma pública de primer orden en Etiopía. En muchas partes del país es la principal fuente de información. Informé inmediatamente a Facebook de las publicaciones y pedí que las retiraran. A pesar de que presenté varios informes utilizando sus herramientas de notificación en el sitio web, no se tomó ninguna medida inmediata.
La muerte de mi padre
Facebook respondió finalmente el 11 de noviembre de 2021, ocho días después del asesinato de mi padre, diciendo que las publicaciones de BDU STAFF iban en contra de su política de normas comunitarias y que las había retirado. Ya era demasiado tarde. Tres semanas después, testigos presenciales me contaron que en la mañana del 3 de noviembre de 2021, mi padre fue seguido a casa desde la universidad por hombres armados vestidos con el uniforme de las Fuerzas Especiales de Amhara, que forman parte de la fuerza regional. Le dispararon dos veces al abrir la puerta. Las balas alcanzaron la casa, la valla, la puerta y las habitaciones del interior. Los testigos presenciales me contaron que se ordenó a los vecinos que no prestaran primeros auxilios, no lo llevaran al hospital ni cubrieran su cuerpo, diciendo que era un traidor. Estos relatos fueron corroborados por la división de Bahir Dar de la Comisión Etíope de Derechos Humanos.
¡Es un ‘junta’! ¡Es un tigriano! ¡Apoya al FPLT! ¡Es un agente suyo que se esconde y vive aquí con nosotros! Les advertimos de que no lo ayuden ni cubran el cadáver.
Consignas de las milicias armadas citando las publicaciones de Facebook que hicieron del profesor un objetivo
Otros dos testigos me dijeron que mi padre fue enterrado en una tumba sin nombre. Los asesinos también se llevaron su coche particular ese día, destrozaron nuestra propiedad, obligaron a nuestra madre a trasladarse a Adís Abeba y tomaron el control total de nuestra casa familiar hasta el día de hoy.
No supimos nada de lo ocurrido hasta que un informe de la Comisión de Derechos Humanos de Etiopía nos informó de su entierro, lo que hace aún más amargo nuestro dolor. Ahora ya conocen mi historia y la de mi padre.
La responsabilidad de Facebook
Creo de todo corazón que Facebook contribuyó a su asesinato. La plataforma ha contribuido a difundir el odio y la violencia, con la consiguiente muerte de miles de compatriotas míos. Mi padre ni siquiera tenía una cuenta en Facebook, pero fue calumniado en Facebook, difamado en Facebook y asesinado en Facebook. Esa es la razón por la que estoy interponiendo una demanda ante el Tribunal Superior de Kenia, el país en el que se moderaron los mensajes que incitaron a los asesinos de mi padre.
Creo de todo corazón que Facebook es directamente responsable de su asesinato. La plataforma se ha utilizado para difundir el odio y la violencia, lo que ha causado la muerte de miles de compatriotas míos.
Abrham Meareg
En Kenia no sólo se moderan los mensajes de Etiopía, sino de toda África Oriental y Austral, donde viven más de 500 millones de personas. ¿Esas vidas no importan? ¿Acaso no importan todas las vidas africanas? Exijo una disculpa pública por parte de Meta. Exijo a Facebook que invierta para evitar que ocurran estas tragedias. Pido al tribunal de Kenia que ordene a Facebook que mejore sus sistemas de seguridad y contrate a un mayor número de personas que actúen como moderadores para que la violencia y el odio no sigan propagándose. Por último, pido al Tribunal que cree un fondo de restitución de 250.000 millones de chelines kenianos (unos 1.500 millones de dólares estadounidenses) en relación con las publicaciones que provoquen violencia, y otros 50.000 millones de chelines kenianos (unos 335.000 dólares estadounidenses) en relación con las publicaciones patrocinadas que hagan lo mismo. Nada de esto me devolverá a mi padre ni devolverá a los seres queridos de otras muchas personas, pero les ayudará a reconstruir sus vidas rotas. Después de todo, es sólo una pequeña parte de los enormes beneficios que Facebook ha obtenido gracias al odio viral. Mark Zuckerberg puede evitar que vuelva a ocurrir lo que le pasó a mi padre. No ha hecho lo suficiente y por eso hago esto para decir “nunca más”.