Par David Nolan, Hajira Maryam et Michael Kleinman, Amnesty Tech, Amnesty International
L’année 2023 a marqué le début d’une nouvelle ère de battage autour de l’intelligence artificielle (IA), qui a rapidement conduit les responsables politiques à mener des discussions sur la sécurité et la réglementation des nouvelles technologies d’intelligence artificielle. Cette année intense dans le domaine de la technologie a commencé avec le lancement de ChatGPT, fin 2022, et s’est terminée avec l’accord historique de l’Union européenne (UE) sur la Loi sur l’Intelligence artificielle. Le texte définitif doit encore être finalisé lors de réunions techniques au cours des prochaines semaines, mais certains signes indiquent déjà que, si la toute première réglementation du monde occidental sur l’IA va bien, dans une certaine mesure, dans le sens de la protection des personnes contre les préjudices engendrés par ces technologies, elle reste toutefois insuffisante sur plusieurs points essentiels, puisqu’elle ne garantit pas la protection des droits humains, en particulier ceux des personnes les plus marginalisées. Cet accord est intervenu peu après l’organisation par le gouvernement britannique du premier sommet sur les risques associés à l’intelligence artificielle en novembre 2023, durant lequel des dirigeant·e·s mondiaux, d’importants acteurs du secteur et des groupes de la société civile sélectionnés se sont rassemblés pour discuter des risques liés à l’IA. Certes, l’élan grandissant et la multiplication des débats autour de la gouvernance de l’IA sont bienvenus et répondent à un besoin urgent. Néanmoins, la question essentielle en 2024 est de savoir si ces discussions aboutiront à des engagements concrets, se concentreront sur les risques liés à l’IA les plus importants à l’heure actuelle et, surtout, si elles entraîneront également des actions concrètes ailleurs dans le monde.
S’il est vrai que les évolutions dans le domaine de l’IA ouvrent de nouvelles possibilités et présentent certains avantages, nous ne devons pas fermer les yeux sur les dangers attestés que représentent les outils d’IA lorsqu’ils sont utilisés comme moyen de contrôle social, de surveillance de masse et de discrimination. Bien trop souvent, les systèmes d’IA sont entraînés sur d’énormes ensembles de données privées et publiques. Or, ces données reflètent les injustices sociales et conduisent souvent à des résultats biaisés qui exacerbent les inégalités. Des outils de police prédictive aux systèmes décisionnels automatisés déployés au sein du secteur public afin de déterminer qui aura accès aux soins de santé et à l’aide sociale, en passant par la surveillance des déplacements de personnes migrantes et réfugiées, l’IA a porté atteinte de manière systématique et flagrante aux droits humains des personnes les plus marginalisées de la société. En outre, d’autres formes d’intelligence artificielle, telles que des systèmes algorithmiques de détection des fraudes, ont touché de manière disproportionnée les minorités ethniques, qui ont été confrontées à de graves problèmes financiers, comme Amnesty International l’a déjà démontré. Les technologies de reconnaissance faciale ont quant à elles été utilisées par les forces de police et de sécurité pour cibler les populations racisées et renforcer davantage le système israélien d’apartheid.
Pourquoi est-il si complexe et difficile de réglementer l’intelligence artificielle ? Tout d’abord, la définition vague du terme lui-même rend le travail en vue de réglementer cette technologie d’autant plus fastidieux. Il n’existe aucun consensus général sur la définition de l’intelligence artificielle, car le terme ne fait pas référence à une technologie en particulier, et désigne en réalité une myriade d’applications et de méthodes technologiques. Le fait que des systèmes d’IA soient utilisés dans de nombreux domaines différents au sein du secteur public et privé signifie que des parties prenantes nombreuses et variées sont impliquées dans leur développement et leur déploiement. Ces systèmes sont en effet le résultat de la mobilisation de main-d’œuvre, de données, de logiciels et de ressources financières, et toute réglementation doit donc s’attaquer aux préjudices commis en amont et en aval de leur production. De plus, ces systèmes ne peuvent être considérés à proprement parler comme du matériel informatique ou des logiciels, et leurs effets dépendent plutôt du contexte dans lequel ils sont développés et mis en œuvre, ce dont la réglementation doit tenir compte.
En ce début d’année 2024, il est temps de veiller non seulement à ce que les systèmes d’IA soient conçus pour être par nature respectueux des droits humains, mais également à ce que les personnes pour lesquelles ces technologies ont des conséquences participent réellement au processus décisionnel concernant la réglementation des technologies d’IA et à ce que leur vécu soit systématiquement pris en considération et placé au centre de ces discussions
Parallèlement au processus législatif de l’UE, le Royaume-Uni, les États-Unis et d’autres pays ont établi leurs propres feuilles de route et leurs propres approches pour identifier et atténuer les risques principaux posés par les technologies d’intelligence artificielle. Bien que ces processus législatifs présentent de nombreuses complexités, cela ne doit pas retarder les efforts fournis pour protéger les personnes des préjudices causés par l’IA et, chez Amnesty, nous savons que toute approche réglementaire proposée doit comporter certains éléments essentiels. La réglementation doit être juridiquement contraignante et tenir compte des préjudices déjà recensés que subissent les personnes confrontées à ces systèmes. Faute d’une inscription dans la loi les rendant contraignants, les engagements et principes de développement et d’utilisation « responsables » de l’IA (soit le cœur du cadre réglementaire « pro-innovation » actuellement en cours d’élaboration au Royaume-Uni) ne garantiront pas une protection suffisante contre les risques liés aux nouvelles technologies.
De même, toute réglementation doit prévoir des mécanismes plus poussés d’obligation de rendre des comptes, allant au-delà des évaluations techniques préconisées par le secteur. Il est vrai que ces évaluations techniques peuvent constituer un outil supplémentaire au sein de toute réglementation, particulièrement pour détecter les biais algorithmiques. Cependant, il ne faut pas pour autant écarter la possibilité d’imposer des restrictions et des interdictions aux systèmes fondamentalement incompatibles avec les droits humains, quelle que soit la précision ou l’efficacité technique qu’on leur prête.
Les autres pays doivent tirer les leçons du processus de l’UE et veiller à ce qu’il ne reste aucune faille permettant aux acteurs des secteurs public et privé de contourner les obligations réglementaires. Pour cela, il est essentiel de supprimer toute exemption concernant l’utilisation de l’IA dans le cadre de la sécurité nationale ou du maintien de l’ordre. Il est également important que, lorsqu’une réglementation limitera ou interdira à l’avenir l’utilisation de certains systèmes d’IA dans un pays, aucune faille ou lacune réglementaire ne permette d’exporter ces mêmes systèmes dans d’autres pays, où ils pourraient être utilisés pour porter atteinte aux droits humains de groupes marginalisés. Il s’agit d’une brèche béante dans les approches adoptées par le Royaume-Uni, les États-Unis et l’Union européenne, puisqu’elles ne prennent pas en compte le déséquilibre des pouvoirs à l’échelle mondiale en ce qui concerne ces technologies, et en particulier les conséquences de ce déséquilibre pour les populations de la Majorité mondiale, dont les voix ne sont pas représentées durant ces discussions. Des cas d’exploitation de sous-traitants par des entreprises qui développent des outils d’IA ont déjà été constatés au Kenya et au Pakistan.
En ce début d’année 2024, il est temps de veiller non seulement à ce que les systèmes d’IA soient conçus pour être par nature respectueux des droits humains, mais également à ce que les personnes pour lesquelles ces technologies ont des conséquences participent réellement au processus décisionnel concernant la réglementation des technologies d’IA et à ce que leur vécu soit systématiquement pris en considération et placé au centre de ces discussions.
Au-delà des beaux discours des législateur·trice·s, il faut adopter une réglementation contraignante, qui oblige les entreprises et d’autres acteurs clés de l’industrie à rendre des comptes et qui garantisse qu’aucun profit ne sera réalisé au détriment de la protection des droits humains. Les travaux de gouvernance à l’échelle internationale, régionale et nationale doivent se compléter et se nourrir les uns les autres, et les discussions internationales ne doivent pas faire obstacle à l’adoption d’une réglementation nationale digne de ce nom ou de normes réglementaires contraignantes : ces éléments ne sont pas incompatibles. C’est seulement ainsi que l’obligation de rendre des comptes pourra être mise en œuvre ; nous devons apprendre des tentatives passées de réglementer le secteur des technologies, et cela implique de mettre en place des mécanismes solides afin de permettre aux personnes dont les droits ont été bafoués par l’IA d’obtenir justice.