Etiopía: La inacción de Meta contribuyó a la comisión de abusos contra la comunidad tigriana durante el conflicto en el norte de Etiopía

Meta, la empresa matriz de Facebook, contribuyó a la comisión de abusos graves contra los derechos humanos de la comunidad tigriana en Etiopía, afirma Amnistía Internacional en un nuevo informe publicado hoy.

“Sentencia de muerte para mi padre”: Contribución de Meta a los abusos contra los derechos humanos en el norte de Etiopía, muestra cómo, una vez más, Meta ha eludido tomar medidas adecuadas para detener la difusión de contenidos que hacen apología del odio y la violencia, en esta ocasión dirigidos contra la población tigriana durante el conflicto armado que se libró en el norte de Etiopía entre noviembre de 2020 y noviembre de 2022.

Tres años después de su alarmante inacción en Myanmar, Meta ha contribuido una vez más —a través de los algoritmos que configuran sus contenidos y su modelo empresarial ávido de datos— a la comisión de abusos graves contra los derechos humanos.

Agnès Callamard, secretaria general de Amnistía Internacional

Amnistía Internacional ya ha puesto de relieve anteriormente la contribución de Meta a la comisión de violaciones de derechos humanos contra la población rohinyá en Myanmar, y ha advertido de la reiteración de estos daños si el modelo empresarial y los algoritmos que configuran los contenidos de Meta no se sometían a una profunda reforma.

“Tres años después de su alarmante inacción en Myanmar, Meta ha contribuido una vez más —a través de los algoritmos que configuran sus contenidos y su modelo empresarial ávido de datos— a la comisión de abusos graves contra los derechos humanos. Ya antes de estallar el conflicto en el norte de Etiopía, organizaciones de la sociedad civil y personas expertas en derechos humanos advirtieron en reiteradas ocasiones de que Meta podía contribuir a la violencia en el país, y rogaron a la empresa que tomara medidas significativas”, ha afirmado Agnès Callamard, secretaria general de Amnistía Internacional.

“Sin embargo, Meta hizo caso omiso de estas advertencias y no tomó medidas de mitigación adecuadas, ni siquiera después de estallar el conflicto. En consecuencia, Meta ha vuelto a contribuir a la comisión de abusos graves contra los derechos humanos, en esta ocasión perpetrados contra la comunidad tigriana.”

La plataforma de Facebook es una fuente de información importante para muchas personas en Etiopía, que la consideran una fuente de noticias fidedigna. Los algoritmos de Facebook fomentaron efectos devastadores para los derechos humanos al amplificar los contenidos nocivos dirigidos contra la comunidad tigriana en Facebook durante el conflicto armado.

La contribución de Meta a la comisión de abusos contra los derechos humanos

La investigación de Amnistía Internacional ha establecido que los sistemas de algoritmos de Facebook sobrecargaron la difusión de retórica nociva dirigida contra la comunidad tigriana, en tanto que los sistemas de moderación de contenido de la plataforma no detectaron adecuadamente esos contenidos ni respondieron a ellos.

Esta inacción contribuyó en última instancia al homicidio del profesor universitario de química tigriano Meareg Amare. Amare murió a manos de un grupo de hombres tras difundirse en Facebook publicaciones dirigidas contra su persona el 3 de noviembre de 2021.

Supe que sería una condena a muerte para mi padre.

Abrham Meareg a Amnistía Internacional

Las publicaciones de Facebook contenían su nombre, su fotografía, su lugar de trabajo y su dirección particular, afirmaban que era simpatizante del Frente Popular de Liberación de Tigré (FPLT) y lo acusaban de robar grandes cantidades de dinero. Su familia rechazó estas afirmaciones.

Su hijo, Abrham Meareg, cree que estas publicaciones hostiles en Facebook contribuyeron a la muerte de su padre.

El profesor etíope Meareg Amare y su hijo Abrham.
El profesor etíope Meareg Amare y su hijo Abrham.

“Supe que sería una condena a muerte para mi padre”, dijo Abrham Meareg a Amnistía Internacional.

En esas fechas se libraba el conflicto armado en el norte de Etiopía entre el FPLT, las fuerzas federales etíopes y otros grupos armados.

Documentos internos de Meta examinados por Amnistía Internacional muestran que Meta conocía las insuficiencias de sus medidas de mitigación en Etiopía y los riesgos que esto suponía en un país en el que, según la propia empresa, existía un alto riesgo de violencia. Un documento interno de Meta de 2020 advertía que “las estrategias de mitigación actuales no son suficientes” para detener la difusión de contenidos nocivos en la plataforma de Facebook en Etiopía.

Además de amplificar los contenidos nocivos, el escaso tiempo de respuesta de Meta y su negativa a retirar contenidos denunciados hicieron que múltiples personas entrevistadas por Amnistía Internacional manifestaran su convicción de que no tenía sentido denunciar los contenidos a la empresa.

La difusión masiva de estas publicaciones incitó a la violencia y la discriminación contra la comunidad tigriana y agravó una situación que ya estaba a punto de estallar debido a las importantes tensiones étnicas.

Agnès Callamard

Meta recibió múltiples advertencias, tanto antes del conflicto como durante su desarrollo, de organizaciones de la sociedad civil, personas expertas en derechos humanos y su propio Comité de Supervisión de Facebook, que recomendaron que Meta llevara a cabo una evaluación independiente del impacto en los derechos humanos en Etiopía en 2021.

“La difusión masiva de estas publicaciones incitó a la violencia y la discriminación contra la comunidad tigriana y agravó una situación que ya estaba a punto de estallar debido a las importantes tensiones étnicas”, ha declarado Agnès Callamard.

*Gelila, miembro de una organización de la sociedad civil etíope, formó parte del programa “Trusted Partner” (socio de confianza) —iniciativa cuya finalidad es proporcionar a grupos seleccionados de la sociedad civil un canal designado para alertar a Meta sobre contenidos perjudiciales en sus plataformas—, y declaró que la inacción de Facebook respecto a las alertas hizo que se deteriorara aún más la situación de los derechos humanos en el país.

“Como persona que lleva mucho tiempo en Etiopía, puedo afirmar que Facebook está haciendo que las comunidades sean más vulnerables a los conflictos entre ellas”, declaró Gelila.

“Son extremadamente lentos a la hora de reaccionar. No tienen sensibilidad sobre lo que se dice; creo que tienen normas que están muy lejos de lo que ocurre sobre el terreno.”

Meta debe tomar medidas urgentes para mitigar de forma adecuada los riesgos que plantea la plataforma de Facebook en Etiopía, país que hace frente a otra crisis de seguridad en la región de Amhara.

Esto es fundamental, máxime teniendo en cuenta que personal de investigación designado por la ONU ha advertido de la posibilidad de que se cometan crímenes atroces en el futuro, una preocupación de la que se ha hecho eco después la asesora especial de la ONU para la prevención del terrorismo, que ha advertido del aumento del riesgo de genocidio y de crímenes atroces conexos en las regiones de Tigré, Amhara, Afar y Oromia.

Falta reiterada de respeto por los derechos humanos

Los algoritmos de Meta que configuran los contenidos están diseñados para maximizar la interacción de las personas que usan la plataforma con el fin de presentar anuncios publicitarios selectivos, y su resultado es que estimulan contenidos incendiarios, nocivos y polarizadores que tienden a atraer la máxima atención de quienes usan la plataforma.

En 2018, Meta estableció el algoritmo de actualización de noticias en base a una nueva métrica denominada “interacciones sociales significativas”, en un presunto intento de “arreglar Facebook”.

Sin embargo, el análisis realizado por Amnistía Internacional de datos contenidos en los Papeles de Facebook —los documentos internos de Meta revelados por la denunciante de irregularidades Frances Haugen en 2021— indica que este cambio no “arregló” los problemas asociados a los algoritmos de Facebook; antes al contrario, los algoritmos continuaron programados para conseguir la máxima interacción, y por consiguiente favoreciendo de forma desproporcionada los contenidos incendiarios, incluida la apología del odio.

En un documento de los Papeles de Facebook de 2021, hay datos que indican que el director ejecutivo de Meta, Mark Zuckerberg, intervino personalmente para detener la aplicación de medidas de mitigación en países de alto riesgo como Etiopía, porque las medidas podrían haber interferido en la métrica de las interacciones sociales significativas.

Los principios básicos del modelo empresarial de Meta basado en la interacción no han cambiado, por lo que la empresa sigue representando un peligro importante y constante para los derechos humanos, sobre todo en entornos afectados por conflictos.

Remediar la situación: la responsabilidad de Meta de proporcionar reparación

Meta tiene la responsabilidad de proporcionar reparación por los abusos contra los derechos humanos a los que ha contribuido en Etiopía.

Es necesario introducir reformas urgentes y de gran alcance para garantizar que Meta no contribuye de nuevo a causar estos daños en Etiopía ni en ningún otro país.

Esto incluye implementar medidas “de emergencia” —las medidas que Meta puede adoptar en contextos de crisis para reducir el poder de la amplificación algorítmica— en situaciones de alto riesgo tan pronto como se planteen y garantizar la igualdad y la coherencia entre jurisdicciones en cuanto a la dotación de recursos de moderación de contenido, política y equipos de derechos humanos en todo el mundo.

Los Estados deben cumplir su obligación de proteger los derechos humanos introduciendo y aplicando leyes para frenar eficazmente el modelo empresarial de las grandes empresas tecnológicas.. Esto incluye prohibir la publicidad selectiva basada en prácticas de rastreo invasivas.

De igual modo, las grandes empresas tecnológicas también tienen la responsabilidad de respetar los derechos humanos con independencia de las obligaciones de los Estados y, cuando no lo hagan, deben rendir cuentas por las violaciones de derechos humanos que hayan causado o a las que hayan contribuido. Meta rechazó las conclusiones. Su respuesta se refleja en el informe.

Muestra tu solidaridad con Abrham Meareg

La proliferación del odio en Facebook ha vuelto a repetirse, esta vez en Etiopía. @Meta, aprendan de los errores cometidos en el pasado en Myanmar en 2017. #FixOurFeeds