Technologie

Présentation générale

À l’ère du numérique, la lutte pour les droits humains est plus importante que jamais. Elle permet à tous et à toutes de s’exprimer en ligne, de partager des opinions, et de créer, utiliser et accéder à la technologie de manière sûre et juste.

La technologie peut être un moyen d’exercer sa liberté d’expression, de demander des comptes aux gouvernements et de dénoncer des actes répréhensibles.

Cependant, la technologie peut aussi représenter une menace systémique sur les droits humains, en reproduisant la discrimination structurelle des groupes marginalisés dans les domaines du maintien de l’ordre, de la gestion de l’immigration, des prestations sociales, et de l’accès aux soins de santé.

Les outils de surveillance exercent également une influence néfaste sur les groupes déjà marginalisés, et ce de diverses façons et dans le monde entier. 

Notre mission est donc de réagir face aux menaces émergentes qui planent sur les droits humains à l’ère du numérique, et d’aider à formuler et protéger nos droits pour l’avenir.

Nous œuvrons pour amener les géants technologiques à rendre des comptes, tout en luttant contre un État numérique et automatisé, et en dénonçant la surveillance et la censure croissantes exercées par les gouvernements à l’aide de ces technologies.

L’idée d’un État numérique et automatisé fait référence l’utilisation croissante de la technologie par les gouvernements pour prendre des décisions cruciales au sujet des prestations sociales et des systèmes de gestion de l’asile et des migrations.

Nous imaginons un futur où la technologie facilite la protection des droits humains et rend la société plus juste.

À l’ère du numérique, les droits humains permettent de s’exprimer dans des environnements numériques de manière juste, sûre, responsable et inclusive, en garantissant la liberté d’expression, la vie privée, l’égalité, la non-discrimination et la protection des données.

Nous menons de plus en plus notre vie en ligne, et nos droits y doivent être protégés.

Comment la technologie influence-t-elle la société ?

Alors que les avancées technologiques se poursuivent à un rythme exponentiel et que les entreprises de ce secteur montent en puissance et acquièrent progressivement une portée mondiale, il est plus important que jamais de mener une réflexion critique en vue de déterminer à qui ces progrès profitent le plus et à qui ils nuisent.  

Fabian Rogers est un militant de New York qui, avec les autres locataires de son immeuble, a réussi à empêcher l’installation de caméras de reconnaissance faciale dans sa résidence.

Responsabilisation des géants technologiques 

Les géants de la haute technologie exercent un immense pouvoir sur nos vies. Notre dépendance de plus en plus forte à l’égard de ces géants a permis à une poignée d’entreprises de bafouer notre droit au respect de la vie privée et de suivre tous nos faits et gestes, modifiant ainsi nos interactions et créant des prédictions sur nos comportements pour leur profit.

Leur modèle d’activité fondé sur la surveillance représente une menace systémique pour les droits humains, notamment les droits des enfants. Nous n’avons pratiquement aucune maîtrise des informations que les entreprises et les États collectent à notre sujet et de l’utilisation qu’ils en font, ni aucun pouvoir sur leur décision de les partager avec d’autres acteurs.

Face au fléau grandissant de la mésinformation et de la prolifération en ligne de la haine et du racisme, les grandes entreprises technologiques doivent faire plus d’efforts pour respecter les droits humains.  C’est pourquoi nous militons pour la mise en place de mesures réglementaires visant à forcer ces entreprises à respecter leurs responsabilités en matière de droits humains.

Les algorithmes sont un processus, un ensemble de règles ou d’instructions qui permettent à un programme informatique de regrouper plusieurs sources d’information pour générer des résultats. Ils sont également utilisés pour faire fonctionner les plateformes de réseaux sociaux et déterminer le contenu présenté à chaque utilisateur et utilisatrice.

Ils sont partout, dans différents aspects de nos vies et sont par exemple utilisés pour la gestion des systèmes de protection sociale, de maintien de l’ordre et de justice pénale.

Un rapport d’Amnesty montre la manière dont Meta a contribué aux graves atteintes aux droits humains subies par la population Tigréenne dans le Nord de l’Éthiopie. Le rapport révèle que Meta a ignoré les alertes de la société civile sur le fait que l’entreprise ne respectait pas son obligation de diligence pour empêcher la prolifération de contenus incendiaires qui incitent à la violence, à la haine et à la discrimination.

Étude de cas : rôle de Meta dans le nettoyage ethnique de la population rohingya

En septembre 2022, Amnesty a publié une grande enquête sur la façon dont Meta avait amplifié la diffusion de contenus qui incitaient à la haine et à la discrimination à l’encontre des Rohingyas au Myanmar, et a lancé une campagne internationale pour que l’entreprise accorde des réparations aux Rohingyas. Le rapport d’Amnesty, L’atrocité des réseaux sociaux, est une analyse approfondie, la première en son genre, du rôle joué par Meta dans les atrocités perpétrées contre les Rohingyas en 2017.

Ce rapport a révélé que les algorithmes de Facebook étaient conçus pour maximiser à tout prix la « participation des utilisateurs et utilisatrices », ce qui a provoqué et amplifié la diffusion disproportionnée d’informations trompeuses et de discours haineux à l’encontre des Rohingyas sur la plateforme. Cela a participé à la mise en place d’un environnement favorisant la violence généralisée qui a suivi. L’histoire de Maung Sawyeddollah, réfugié rohingya, personnifie les conséquences du rôle joué par Meta dans la prolifération de la haine et de la discrimination.

Nous suivons également la manière dont les États instrumentalisent les plateformes des géants technologiques telles que Facebook pour censurer et faire taire les défenseur·e·s des droits humains, comme nous l’avions montré dans notre rapport de 2020 sur le Viet Nam.  

Étude de cas : TikTok et la santé mentale des enfants

Amnesty International a recueilli des informations sur les dangers systémiques du modèle économique de TikTok, fondé sur la surveillance. Ces rapports dénoncent la façon dont la plateforme porte atteinte au droit au respect de la vie privée, sa conception addictive et son rôle dans l’aggravation des problèmes de santé mentale chez les enfants et les jeunes.

Nos deux rapports, intitulés Poussé·e·s vers les ténèbres : Comment le fil « Pour toi » encourage l’automutilation et les idées suicidaires  et  « Je me sens vulnérable ». Pris·e·s au piège de la surveillance intrinsèque à TikTok , mettent en lumière les atteintes dont sont victimes les enfants et les jeunes utilisant TikTok, ainsi que le fait que ces violences découlent directement du système de recommandation de TikTok et du modèle économique qui le sous-tend. 

Image d’un téléphone portable avec une silhouette bleue assise, la tête sur les genoux. Un téléphone est en train de fondre au-dessus d’un trou de ver violet représentant TikTok.
Image représentant les violences subies par les enfants et les jeunes sur TikTok.

Surveillance et vie privée 

Aux quatre coins du monde, nous constatons également que des technologies de pointe sont utilisées à mauvais escient pour espionner, harceler et intimider des défenseur·e·s des droits humains, y compris de jeunes militant·e·s, et pour étouffer les mouvements sociaux.

Nous ne devons pas nous contenter de nous pencher sur les technologies qui posent problème, nous devons remettre en question les conditions sociales, économiques et politiques qui permettent ou encouragent le détournement de technologies par de puissants acteurs, et les répercussions sur des groupes en particulier, comme les femmes, les minorités raciales, ethniques et religieuses, les enfants, les personnes LGBTQIA+, les personnes pauvres et celles victimes d’inégalités.

La technologie doit faciliter l’accès à l’information, et non la censurer, contrairement à ce que l’on peut constater notamment aux États-Unis, où des entreprises technologiques ont été accusées de permettre la censure en ligne de contenus liés aux droits reproductifs.

L’accès à des informations nécessaires sur la santé reproductive et les droits reproductifs, notamment l’avortement médical, est un droit universel.

Un participant à une manifestation visant à dénoncer l’utilisation fréquente de la surveillance par les agences de sécurité des États-Unis.

Types de surveillance  

  • Les technologies de reconnaissance faciale permettent de déterminer ou confirmer l’identité d’une personne en utilisant les traits de son visage sur des images ou des vidéos. 
  • La surveillance biométrique est l’utilisation des caractéristiques individuelles pour identifier quelqu’un. Les formes les plus courantes utilisent les empreintes digitales et l’identification faciale. 
  • La surveillance assistée par IA est l’utilisation de l’intelligence artificielle et des technologies de surveillance pour contrôler, suivre, analyser et identifier des personnes, des lieux et des objets. 

Surveillance assistée par IA

La surveillance assistée par IA peut être déployée par des gouvernements ou des entreprises pour diverses raisons, dont certaines peuvent avoir des répercussions sur les droits humains, par exemple le contrôle public.

Il est donc urgent d’établir des recommandations et lignes directrices détaillées pour encadrer l’utilisation de ces technologies. Nos enquêtes ont également mis en avant des arguments précis appuyant la nécessité d’interdire l’utilisation de ces technologies lorsqu’elles sont incompatibles avec les droits humains.

Nous continuerons à assurer un suivi, à enquêter et à plaider en faveur de l’intégration de protections renforcées dans la conception et l’utilisation de technologies nouvelles et de pointe, y compris l’intelligence artificielle et l’apprentissage automatique, les systèmes biométriques, notamment la reconnaissance faciale et les nouvelles « villes intelligentes » ou infrastructures urbaines numériques.

Plus d’un million de sympathisant·e·s d’Amnesty du monde entier ont écrit des lettres de soutien à Edward Snowden, lanceur d’alerte et ancien agent du renseignement qui a joué un rôle crucial en révélant l’ampleur de la surveillance de masse à l’échelle mondiale.

Étude de cas : Ban The Scan

En janvier 2021, Amnesty Tech a lancé la campagne Ban the Scan, dont l’objectif est de faire interdire les technologies de reconnaissance faciale à des fins d’identification.

Dans le cadre de cette campagne, nous avons publié des études de cas sur l’utilisation de technologies de reconnaissance faciale à New York, sur ses effets, sur les conséquences disproportionnées qu’elle a pour les personnes de couleur, et la menace qu’elle représente pour le droit de manifester pacifiquement. Nous avons également lancé le projet Decode Surveillance NYC, dans le cadre duquel des milliers de bénévoles numériques du monde entier sont virtuellement descendus dans les rues de New York pour répertorier les caméras de surveillance et autres caméras publiques pouvant être associées à un logiciel de reconnaissance faciale. 

La campagne Ban the scan s’est ensuite élargie, pour prendre en compte l’utilisation abusive des technologies de reconnaissance faciale à Hyderabad, en Inde, ainsi que dans Jérusalem-Est et à Hébron, dans les territoires palestiniens occupés, avec la publication du rapport d’Amnesty sur l’apartheid automatisé.

Vidéo mettant en avant l’utilisation des technologies de reconnaissance faciale et le racisme dans les opérations de maintien de l’ordre.

Surveillance ciblée des militant·e·s 

L’armée et les services de renseignement et de maintien de l’ordre sont les plus grands utilisateurs et clients de logiciels espions et d’entreprises de surveillance.

Ces entités peuvent être amenées à chercher des informations spécifiques, comme l’endroit où se trouve une personne, les sources d’un·e journaliste, les détails d’une manifestation qui s’organise, des informations sur des faits de corruptions ou des preuves d’actes illégaux.

Les gouvernements affirment qu’ils utilisent ces outils de surveillances pour cibler « les criminels et les terroristes », mais en réalité les personnes les plus souvent visées par les logiciels espions comme Predator sont des militant·e·s des droits humains, des journalistes et des opposant·e·s politiques. L’utilisation d’un logiciel espion est une atteinte à de nombreux droits humains, notamment le droit à la vie privée et les droits à la liberté d’expression, d’opinion, de réunion et d’association.

Mais les conséquences négatives des logiciels espions ne touchent pas tout le monde de la même manière. L’instrumentalisation de ces données peut entraîner d’autres atteintes aux droits humains, en ligne et hors ligne, notamment pour des personnes subissant déjà de la discrimination en raison de leur identité.  Ces atteintes peuvent prendre diverses formes, comme le chantage, le doxxing, le stalking en ligne, le harcèlement et l’intimidation.

Un logiciel espion est une forme de logiciel malveillant. Il interfère avec le fonctionnement normal d’un équipement afin de récolter des informations et les envoyer à une autre entité, qui n’a pas le droit d’y avoir accès, et ce sans alerter l’utilisateur ou utilisatrice.

Les logiciels espions hautement intrusifs permettent un accès illimité à l’appareil visé. Ils ne laissent que très peu de traces, et il est donc presque impossible pour l’utilisateur ou utilisatrice de savoir quelles données ont été volées.

an illustration with a circle around activists. Outside the circle are mysterious shadows that are spying
Illustration highlighting digital surveillance.

Étude de cas : Pegasus de NSO

Notre enquête a révélé que le logiciel espion Pegasus de NSO Group servait à cibler des militant·e·s, des journalistes et des dirigeant·e·s politiques partout dans le monde.

Lorsqu’il est subrepticement installé dans le téléphone d’une personne, ce logiciel permet à l’auteur de l’attaque d’avoir entièrement accès au contenu de cet appareil (SMS, courriels, activité sur Internet, micro, appareil photo, appels téléphoniques et contacts).

L’enquête a établi que Pegasus avait été utilisé par les forces de sécurité saoudiennes – bien qu’elles nient ce fait – pour viser plusieurs proches du journaliste saoudien Jamal Khashoggi, l’une des nombreuses victimes de Pegasus, avant et après son meurtre, commis le 2 octobre 2018 à Istanbul par des agents saoudiens.

Des membres et sympathisant·e·s d’Amnesty International manifestant contre la présence du groupe NSO à l’International Security Expo à Londres, le 28 septembre 2021.

Automatisation de l’État et intelligence artificielle

Aujourd’hui, l’intelligence artificielle (IA) inaugure une nouvelle ère technologique comme Internet l’a fait par le passé. Elle est présente dans pratiquement tous les aspects de notre vie quotidienne, qu’elle modèle et arbitre, de la production manufacturière aux services financiers, en passant par les soins de santé et l’économie.

Comment les États utilisent-ils l’automatisation et les systèmes algorithmiques ?

Les gouvernements utilisent de plus en plus d’algorithmes dans leurs processus décisionnels. Par exemple en ce qui concerne la prestation de soins de santé, le maintien de l’ordre, et l’immigration.

Cette utilisation de la technologie fait planer de nombreuses menaces sur les droits humains et pourrait engendrer des conséquences négatives notamment sur le droit à l’égalité et à la non-discrimination, ainsi que sur un ensemble de droits économiques et sociaux, comme le droit à l’éducation et à la santé. Des mesures de transparence et de responsabilisation sont nécessaires pour protéger les droits humains et atténuer les effets néfastes potentiels de cette automatisation.

Que sont les biais algorithmiques ?

On parle de biais algorithmiques lorsque des algorithmes prennent des décisions qui désavantagent systématiquement certains groupes de personnes.

Par exemple, si un algorithme prédit la probabilité qu’un crime soit commis par une certaine personne ou dans un lieu en particulier, ces personnes ou ces lieux seront surveillés de près par la police, ce qui pourra engendrer la discrimination des personnes visées.

Un circuit électronique complexe contenant une puce d’intelligence artificielle

Étude de cas : pauvreté et discrimination dans l’État-providence en Serbie

Le rapport Pris au piège de l’automatisation : Pauvreté et discrimination dans l’État-providence en Serbie  met en lumière comment, en Serbie, des populations touchées par la pauvreté et la marginalisation sombrent encore davantage dans l’indigence, à cause d’un système automatisé de prestations sociales, financé par la Banque mondiale, qui les prive d’aides.

Les communautés roms et les personnes en situation de handicap sont les plus affectées.

Illustration sur fond bleu foncé d’une main holographique, vert fluo, pointant une personne.

Futures tendances technologiques

Les technologies émergentes continueront à transformer nos sociétés.

Les gouvernements utilisent de plus en plus l’intelligence artificielle dans les processus décisionnels du secteur public. Cela affectera la vie et les droits humains de nombreuses personnes.

Amnesty International a pour objectif d’identifier les potentielles conséquences des technologies émergentes, comme l’IA générative, sur les droits humains, puis de contacter les gouvernements et les entreprises pour s’assurer que ces technologies soient développées et déployées dans le respect des droits fondamentaux.

Les nouvelles technologies doivent être développées et déployées avec de solides garde-fous garantissant l’obligation de rendre compte de ses actes, et des cadres politiques permettant de protéger les droits humains partout dans le monde. La technologie doit servir les intérêts de toute l’humanité, pas seulement ceux de quelques riches et puissants propriétaires d’entreprises développant ces technologies.

Les gouvernements ont la responsabilité de veiller à ce que les entreprises agissent de manière responsable lorsqu’elles investissent dans la technologie.

Illustration du concept de technologie d’intelligence artificielle, avec du texte sur un circuit électronique. –

Que fait Amnesty International pour que les gouvernements et les entreprises technologiques prennent leurs responsabilités ?

Nous pensons qu’il est temps que la technologie accorde une place centrale aux personnes et aux droits humains.  

Pour cela, nous enquêtons. Nous faisons campagne. Nous nous mobilisons pour infléchir les politiques. Nous luttons pour la justice. Nous amenons les puissants à rendre des comptes. Nous traçons la voie à suivre en ce qui concerne l’avenir des droits humains et de la technologie pour :  

  • Recâbler Internet afin que les personnes et les droits humains occupent une place prépondérante, en veillant à ce que les géants technologiques soient soumis à une réglementation qui protège efficacement les droits fondamentaux, et à ce que les entreprises en général soient plus transparentes et plus responsables.  
  • Résister à une utilisation de la technologie qui vise à réduire au silence les militant·e·s, en empêchant la surveillance illégale, la censure et les coupures de l’accès à Internet.  
  • Réécrire le code de façon à protéger les droits humains, en faisant en sorte que la discrimination et les préjugés ne soient plus programmés dans les algorithmes qui prennent des décisions susceptibles de changer des vies. 

Notre théorie du changement est la suivante : nous pouvons limiter l’utilisation abusive des technologies par les États et les entreprises en nous appuyant tout d’abord sur nos capacités uniques de recherche et de communication fondées sur l’action pour déceler et mettre en évidence les nouvelles menaces que les technologies font peser sur nos droits, puis en faisant appel au mouvement d’Amnesty pour pousser les entreprises et les gouvernements de tous les pays du monde, ainsi que les principales institutions multilatérales, à adopter des lois responsables et efficaces pour limiter ces abus.   

Dites à TikTok d’interdire toutes les publicités ciblées qui s’adressent à des jeunes

Rendez TikTok plus sûre

Rejoignez notre campagne #FixTikTok, et aidez-nous à demander à TikTok de rendre sa plateforme plus sûre pour les enfants et les jeunes