Les nouvelles politiques de Meta en matière de contenus risquent d’alimenter davantage de violences de masse et de génocides

Les récentes annonces de Meta sur sa politique en matière de contenus constituent une grave menace pour des communautés vulnérables dans le monde, et augmentent considérablement le risque que cette entreprise contribue de nouveau à des violences de masse et à des violations flagrantes des droits humains – comme elle l’a fait au Myanmar en 2017. La contribution significative de cette entreprise aux atrocités infligées au peuple rohingya fait l’objet d’une nouvelle plainte de la part d’un lanceur d’alerte, qui vient d’être déposée auprès de la Securities and Exchange Commission (SEC), la Commission américaine des opérations de bourse. 

Le 7 janvier, Mark Zuckerberg, fondateur et PDG de Meta, a annoncé une série de changements dans les politiques de contenus de Meta, visant manifestement à s’attirer les faveurs de la nouvelle administration Trump. Il s’agit notamment de la levée des interdictions sur des discours précédemment prohibés, tels que le dénigrement et le harcèlement des minorités racisées. Mark Zuckerberg a également annoncé un changement radical dans les pratiques de modération des contenus, la modération automatisée étant considérablement réduite. Si ces changements ont d’abord été mis en œuvre aux États-Unis, Meta a indiqué qu’ils pourraient être étendus à l’échelle internationale. Ce changement marque un net recul par rapport aux engagements précédemment pris par l’entreprise en matière de gouvernance responsable des contenus.

Je pense vraiment qu’il s’agit d’un précurseur au génocide […] Nous avons déjà vu cela se produire. La vie de personnes réelles va véritablement être mise en danger

Un·e ancien·ne employé·e de Meta s’adressant à Platformer

Amnesty International et d’autres organisations ont recueilli de nombreuses informations sur le fait que les algorithmes de Meta mettent en avant et amplifient certains des contenus les plus préjudiciables, notamment les appels à la haine, la désinformation et les contenus incitant à la violence raciale, tout cela dans le but de maximiser « la participation des utilisateurs et utilisatrices » et, par extension, les profits. Des recherches ont montré que ces algorithmes amplifient systématiquement les contenus qui suscitent de fortes réactions émotionnelles, souvent au détriment des droits humains et de la sécurité. La suppression des garanties existantes en matière de contenus risque d’aggraver cette situation. 

Un·e ancien·ne employé·e de Meta a récemment déclaré à Platformer : « Je pense vraiment qu’il s’agit d’un précurseur au génocide […] Nous avons déjà vu cela se produire. La vie de personnes réelles va véritablement être mise en danger. » Cette déclaration fait écho aux mises en garde de plusieurs experts des droits humains, qui ont exprimé leurs inquiétudes face au rôle de Meta dans l’incitation à des violences de masse dans des sociétés fragiles et touchées par des conflits. 

Nous avons déjà été témoins des horribles conséquences de l’imprudence de Meta. En 2017, les forces de sécurité du Myanmar ont entrepris une campagne brutale de nettoyage ethnique contre les musulman·e·s rohingyas. Une commission d’enquête indépendante des Nations unies a conclu en 2018 que le Myanmar avait commis un génocide. Au cours des années ayant précédé ces attaques, Facebook était devenu une caisse de résonance de la haine anti-Rohingya. La diffusion massive de contenus déshumanisants contre les Rohingyas a jeté de l’huile sur le feu entretenu par des discriminations menées de longue date, et a contribué à créer un environnement propice à la violence de masse. En l’absence de garanties adaptées, les algorithmes toxiques de Facebook ont intensifié la tempête de haine contre les Rohingyas, ce qui a contribué à ces atrocités. Selon un rapport des Nations unies, Facebook a contribué à la radicalisation des populations locales et à l’incitation à la violence contre les Rohingyas. 

Au lieu de tirer des enseignements de sa contribution inconsidérée à des violences de masse dans des pays tels que le Myanmar et l’Éthiopie, Meta supprime des protections importantes qui visaient à empêcher que de tels préjudices ne se reproduisent.

En adoptant ces changements, Meta a dans les faits déclaré ouverte la saison de la haine et du harcèlement contre les personnes les plus vulnérables et exposées aux risques, notamment les personnes transgenres, les migrant·e·s et les réfugié·e·s. 

Meta affirme mettre en place ces changements pour faire avancer la liberté d’expression. S’il est vrai que Meta a restreint à tort des contenus légitimes dans de nombreux cas, cet abandon radical des garanties existantes n’est pas la solution. L’entreprise doit adopter une approche équilibrée qui permette l’exercice de la liberté d’expression tout en protégeant les populations vulnérables. 

Toutes les entreprises, y compris Meta, ont clairement la responsabilité de respecter l’ensemble des droits humains, conformément aux normes internationales en la matière. Les grands patrons milliardaires ne peuvent pas simplement sélectionner quels droits respecter tout en ignorant de manière flagrante les autres et en mettant en danger de manière inconsidérée les droits de millions de personnes.

Au lieu de tirer des enseignements de sa contribution inconsidérée à des violences de masse dans des pays tels que le Myanmar et l’Éthiopie, Meta supprime des protections importantes qui visaient à empêcher que de tels préjudices ne se reproduisent

Pat de Brún est à la tête du programme d’Amnesty International travaillant sur la responsabilisation des géants technologiques

Une enquête menée par Amnesty International en 2021 a révélé que Meta avait « contribué de manière substantielle » aux atrocités perpétrées contre les Rohingyas, et que l’entreprise devait faire le nécessaire pour offrir un recours effectif à la communauté. Meta a cependant clairement indiqué qu’elle ne prendrait aucune mesure en ce sens. 

Les communautés rohingyas – dont la plupart des membres ont été chassés de chez eux il y a huit ans et résident toujours dans des camps de réfugié·e·s tentaculaires au Bangladesh voisin – ont également demandé à Meta de remédier à la situation en finançant un projet éducatif dans les camps de réfugiés à hauteur d’un million de dollars étasuniens. Cette somme ne représente que 0,0007 % des bénéfices de Meta pour 2023, qui s’élèvent à 134 milliards de dollars. Malgré cela, Meta a rejeté cette demande. Ce refus illustre une fois de plus le manquement de l’entreprise à ses responsabilités, ainsi que son engagement à privilégier le profit au détriment de la dignité humaine. 

C’est pourquoi nous – Maung Sawyeddollah, rescapé des atrocités commises contre les Rohingyas, soutenu par Amnesty International, l’Open Society Justice Initiative et Victim Advocates International – avons déposé, le 23 janvier 2025, une plainte en tant que lanceurs d’alerte auprès de la Securities and Exchange Commission (Commission américaine des opérations de bourse, SEC). La plainte déposée souligne le fait que Meta n’a pas tenu compte des mises en garde de la société civile entre 2013 et 2017 concernant le rôle potentiel de Facebook dans l’alimentation de la violence. Nous demandons à la SEC d’enquêter sur Meta pour des violations présumées des lois sur les valeurs mobilières découlant des fausses déclarations de l’entreprise aux actionnaires concernant sa contribution aux atrocités subies par les Rohingyas en 2017. 

Entre 2015 et 2017, la direction de Meta a assuré aux actionnaires que les algorithmes de Facebook n’entraînaient pas de polarisation, alors que l’entreprise avait été avertie du rôle de Facebook dans la prolifération de contenus hostiles aux Rohingyas au Myanmar. Meta n’a en outre pas pleinement révélé aux actionnaires les risques liés à ses activités au Myanmar. Au lieu de cela, en 2015 et 2016, Meta s’est opposée à des propositions avancées par des actionnaires, notamment sur l’évaluation de l’impact sur les droits humains, et la mise en place d’un comité interne chargé de superviser les politiques et les pratiques de l’entreprise concernant les questions publiques internationales, notamment les droits humains.

Tandis que Mark Zuckerberg et d’autres PDG du secteur des technologies se rangent (littéralement, dans le cas de la récente investiture) derrière les attaques de grande ampleur du nouveau gouvernement des États-Unis contre les droits humains, les actionnaires de Meta doivent se mobiliser et demander des comptes aux dirigeants de l’entreprise pour éviter que Meta ne devienne une fois de plus un vecteur de violences de masse, voire de génocide. 

De même, les législateurs étasuniens doivent veiller à ce que la SEC conserve sa neutralité, enquête correctement sur les plaintes légitimes, comme celle que nous avons récemment déposée, et veille à ce que les auteurs présumés de violations des droits humains soient traduits en justice. 

À l’échelle mondiale, les gouvernements et les organes régionaux tels que l’Union européenne doivent redoubler d’efforts pour obliger Meta et les autres grandes entreprises technologiques à rendre des comptes en ce qui concerne leur impact sur les droits humains. Comme nous l’avons vu précédemment, d’innombrables vies humaines pourraient être menacées si on laisse des entreprises comme Meta agir de manière incontrôlée.

Pat de Brún est à la tête du programme d’Amnesty International travaillant sur la responsabilisation des géants technologiques. Il est aussi le directeur adjoint d’Amnesty Tech.

Maung Sawyeddollah est le fondateur et directeur général du Réseau des étudiant·e·s rohingya. Il a survécu aux atrocités commises par l’armée du Myanmar en 2017 et a fui au Bangladesh. Maung Sawyeddollah étudie désormais à l’Université de New York tout en continuant à faire campagne en faveur de la justice pour les Rohingyas.