Intelligence artificielle : cette technologie qui pourrait transformer nos droits

Anna Bacciarelli, chercheuse sur les technologies et les droits humains

Faites une recherche Internet concernant l’intelligence artificielle (IA). Vous obtiendrez une myriade d’articles de presse traitant de sociétés qui investissent massivement dans la recherche et les logiciels d’intelligence artificielle, ou de la manière dont celle-ci va révolutionner notre façon de vivre et de travailler.

Nul doute que l’intelligence artificielle est actuellement sous les projecteurs. Les avancées de la puissance de calcul, l’accès sans précédent à des quantités de données gigantesques ainsi que l’investissement financier dans la recherche et le développement de l’IA ont permis des progrès phénoménaux dans ce domaine au cours de la dernière décennie.

Les systèmes basés sur l’IA ont franchi des étapes inouïes bien plus tôt que ne l’avaient envisagé les experts. L’an dernier, la défaite d’un champion (humain) de go, un jeu chinois très ancien, contre un système d’IA a constitué l’une de ces percées. Pour battre Lee Sedol, meilleur joueur mondial de go, le programme AlphaGo, créé par l’entreprise d’IA DeepMind, filiale de Google, a utilisé des capacités de prévision et d’adaptation que l’on ne pensait pas atteindre avant dix ans en matière de développement de la capacité de calcul. AlphaGo et DeepMind ont réitéré cet exploit le mois dernier. Si le programme reste très spécialisé, la victoire n’était pas pour autant un coup de chance.

Quel est le rapport avec les droits humains ? 

Des logiciels d'IA prennent aujourd’hui des décisions de premier plan dans notre vie.

Eh bien, si l’accélération rapide du développement et de l’utilisation de l’intelligence artificielle se poursuit comme prévu, le monde dans lequel nous vivons sera très différent dans un avenir proche. Cette situation aura un impact significatif sur nos droits. C’est déjà le cas dans une certaine mesure, puisque des logiciels d’IA prennent aujourd’hui des décisions de premier plan dans notre vie. Dans les années à venir, leur rôle ne fera que s’accentuer.

Amnesty International a récemment participé au sommet AI for Good, la première rencontre mondiale visant à analyser réellement l’impact social de l’intelligence artificielle et à déterminer comment atténuer au mieux les risques et, dans l’idéal, faire en sorte (vous l’aurez deviné) que l’intelligence artificielle favorise nos droits et œuvre au bien commun. Concrètement, il s’agit d’experts et d’entreprises de la technologie, de chercheurs en IA, de diplomates, d’entrepreneurs et de groupes de défense des droits humains qui se réunissent, se rendent compte qu’ils se posent les mêmes questions et tentent de trouver un moyen d’empêcher un scénario catastrophe dans lequel nos droits seraient piétinés à mesure que la technologie progresse.

Les IA sont construites par les humains et seront façonnées par les valeurs humaines. Si nous construisons des systèmes qui reflètent notre société actuelle, ils seront gagrénés par les biais historiques et les inégalités de nos sociétés.

Salil Shetty, Amnesty International

Salil Shetty, le secrétaire général d’Amnesty International, a abordé certaines questions liées à l’intelligence artificielle sur lesquelles travaille l’organisation. Nous étudions les risques et les avantages, nous enquêtons sur les secteurs où des systèmes d’IA sont déjà utilisés et, en définitive, nous venons en aide aux personnes qui mettent au point des systèmes afin que les droits humains soient au cœur de leur travail.

L’ombre de la prise de décisions automatisée

Qu’entend-on par « intelligence artificielle » ?

Oubliez Terminator. Cette vision de l’intelligence artificielle générale – la « singularité », lorsque les machines atteignent le niveau de l’intelligence humaine – reste du domaine de la science-fiction.

En revanche, l’intelligence artificielle faible (des systèmes mis au point pour mener une tâche ou un processus spécifiques, qui « apprennent en faisant ») progresse. Il peut s’agir d’apprentissage supervisé (un système récompensé et corrigé par un programmeur jusqu’à ce qu’il apprenne des modèles) ou de nouvelles méthodes d’apprentissage profond (des systèmes programmés pour apprendre de manière plus sophistiquée, inspirés des processus en œuvre dans le cerveau humain). À l’heure actuelle, l’intelligence artificielle est « souvent un terme à la mode pour désigner un programme informatique ».

Néanmoins, des programmes informatiques capables d’apprentissage sont à la base d’un nombre croissant de décisions dans nos vies, depuis des choix relativement anodins comme la sélection du contenu qui apparait sur Facebook ou Netflix, jusqu’à d’autres dont les conséquences sont plus importantes, comme la recommandation de périodes de sûreté avant possibilité de libération conditionnelle.

Tous les algorithmes d'apprentissage profond sont aujourd'hui opaques. Même les programmeurs qui ont mis au point un système d'apprentissage profond sont incapables d'expliquer pourquoi ou comment celui-ci est arrivé à une décision.

N’oublions pas que les machines capables d’apprendre restent créées et guidées par des humains. Un programmeur détermine les paramètres des algorithmes et les données d’apprentissage et assure généralement le suivi du système au cours de son apprentissage. Cependant, les données de sortie du système ne sont actuellement pas maitrisées, ce qui devient problématique lorsque les systèmes ne sont pas transparents.

Tous les algorithmes d’apprentissage profond sont aujourd’hui opaques. Même les programmeurs qui ont mis au point un système d’apprentissage profond sont incapables d’expliquer pourquoi ou comment celui-ci est arrivé à une décision. Cette situation est souvent qualifiée de « phénomène de la boite noire ». Si les données d’entrée et de sortie sont visibles, on ignore en revanche la manière dont le système est passé des unes aux autres.

De plus en plus de services sont automatisés à l’aide de technologies reposant sur l’intelligence artificielle, conçues pour prendre des décisions. Cela montre le rôle de plus en plus important de ce type de programmes au sein de notre société. Le fait de confier certaines tâches à des machines n’a rien de nouveau. Nous avons par exemple depuis longtemps remplacé ou renforcé des tâches manuelles à l’aide de standards téléphoniques ou de calculatrices, ou automatisé des processus de fabrication. Cependant, nous déléguons à présent la prise de décision à des logiciels, pour émettre ou recommander une décision.

Même si un système n’est pas totalement automatisé, dans la mesure où il recommande une décision à un humain, une grande confiance est placée dans la machine alors que la manière dont elle conclut à cette recommandation reste floue. Ainsi, en ce qui concerne la détermination de la période de sûreté automatisée, un programme analyse des données afin de soumettre une évaluation du risque de récidive d’un prisonnier à un juge, qui prend la décision.

« Nous déléguons la prise de décisions à des machines et il s’agit de l’une des principales questions éthiques : est-il possible de tracer une ligne précisant les types de décisions qui ne devraient pas être confiées à des machines ? » – Luka Omladič, COMEST, lors du sommet AI for Good

Le recours à l’intelligence artificielle n’est pas toujours horrible. Personne n’est payé pour sélectionner les informations qui m’apparaissent chaque matin sur Facebook ou Apple. Ces contenus sont déterminés sur la base de mon historique de navigation. Il s’agit probablement de la manière la plus efficace de me proposer des informations qui m’intéressent – une méthode indéniablement plus efficace que d’employer quelqu’un pour s’en charger (même si l’on peut affirmer que les bulles de filtres de Facebook et d’autres plateformes proposent de manière irresponsable des opinions clivantes ou des infox). Cependant, le risque est grand lorsque l’on confie à des machines des tâches importantes du point de vue social, en particulier si leur mode de fonctionnement n’est pas transparent.

  • Le coût humain des décisions basées sur l’IA

Prestations sociales ou soins médicaux interrompus sans explications, discrimination sur le lieu de travail ou dans le système judiciaire : ces situations sont bien réelles. Il s’agit d’exemples actuels issus d’un monde de mégadonnées dans lequel notre recours croissant à la prise de décision automatisée pourrait favoriser l’élargissement grandissant du fossé entre les personnes qui peuvent exercer leurs droits et celles qui ne sont pas en mesure de le faire. Dans différents domaines, des technologies basées sur l’intelligence artificielle ont d’ores et déjà participé à ancrer et perpétuer la discrimination et l’inégalité.

C’est notamment le cas en ce qui concerne la justice pénale. En 2016, une enquête menée par ProPublica sur les périodes de sûreté prononcées lors de condamnations par l’État de Floride, aux États-Unis, a montré que des algorithmes utilisant des données historiques biaisées recommandaient régulièrement pour des détenus noirs des périodes de sûreté plus longues que pour des détenus blancs ayant commis des infractions plus graves. À de nombreuses reprises, des juges s’appuyant sur l’évaluation automatisée des risques de récidive ont prononcé des peines plus sévères à l’encontre des personnes pour lesquelles le taux de risque évalué était plus élevé, alors même que cette recommandation était défaillante.

Nous disions qu'Internet constituerait une grande avancée pour la liberté d'expression, mais Internet a également entrainé des clivages […]. Nous pensions qu'il permettrait d'équilibrer les rapports entre les femmes et les hommes, mais sur la toile, le fossé qui les sépare s'est élargi.

Frank La Rue, UNESCO, lors du sommet AI for Good

Prenons à présent l’exemple des soins de santé. L’Union américaine pour les libertés civiles (ACLU) a porté plainte contre l’État de l’Idaho au nom de 4 000 personnes souffrant de déficiences mentales ou de retards de développement, dont la couverture du programme Medicaid a été réduite sans explication par un logiciel basé sur des données erronées et non représentatives, comme l’ont découvert les spécialistes des données de l’ACLU.

La prise de décisions par des logiciels soulève de nombreuses questions. D’abord, devons-nous vraiment laisser ce type de systèmes informatiques prendre des décisions importantes si nous ne pouvons pas expliquer comment ou pourquoi elles ont été prises, et alors qu’elles manquent d’équité et de transparence ? Ensuite, qui est responsable des décisions générées par ces technologies, et comment les personnes concernées peuvent-elles contester une décision inique et obtenir justice ?

« Nous disions qu’Internet constituerait une grande avancée pour la liberté d’expression, mais Internet a également entrainé des clivages […]. Nous pensions qu’il permettrait d’équilibrer les rapports entre les femmes et les hommes, mais sur la toile, le fossé qui les sépare s’est élargi. » – Frank La Rue, UNESCO, lors du sommet AI for Good

À l’heure actuelle, il semble que les systèmes informatiques basés sur l’IA pourraient engendrer un accès aux services à deux vitesses et accroître les disparités entre les personnes qui en bénéficient et celles qui en sont exclues, à un degré jamais vu.

  • Concevoir des systèmes basés sur l’IA qui protègent les droits

Comme l’a souligné lors du sommet AI for Good l’universitaire spécialiste de l’IA Yoshua Bengio, les programmeurs et les chercheurs se focalisent sur la création de codes, sans nécessairement penser à leur application.

La reconnaissance faciale est plutôt anodine quand il s'agit de nous aider à identifier efficacement des amis sur des photos publiées sur Facebook. Elle devient bien plus inquiétante lorsqu'elle est utilisée pour maintenir l'ordre lors de manifestation ou dans le cadre de programmes gouvernementaux de surveillance de masse.

Le rôle d’Amnesty International est de réfléchir à la place des droits humains dans l’utilisation des logiciels. La reconnaissance faciale est plutôt anodine quand il s’agit de nous aider à identifier efficacement des amis sur des photos publiées sur Facebook. Elle devient bien plus inquiétante lorsqu’elle est utilisée pour maintenir l’ordre lors de manifestation ou dans le cadre de programmes gouvernementaux de surveillance de masse, par exemple.

Il est essentiel que les personnes qui conçoivent les nouvelles technologies prennent véritablement en considération leur possible utilisation future (l’IA pour le pire, en quelque sorte) et s’abstiennent de créer ou de mettre en place des systèmes qui mettent gravement en péril nos droits. Nous appelons notamment à l’interdiction totale du développement des systèmes d’armes létales autonomes – également appelés « robots tueurs ».

Nous souhaitons collaborer avec des experts du domaine des technologies, des chercheurs en intelligence artificielle et des utilisateurs des systèmes basés sur l’IA, afin de définir des principes de droits humains dans ce domaine. Il s’agit de proposer des recommandations de conception et de politiques pour aider les personnes qui créent et développent des technologies basées sur l’IA à garantir que celles-ci protègent les droits.

Nous sommes soucieux de travailler à la compréhension des risques qui pèsent sur les droits humains et à la définition de principes concrets et pertinents pour les personnes qui créent et mettent en place des systèmes basés sur l’IA.

Avant tout, nous devons faire face à certains défis majeurs afin que les technologies basées sur l’intelligence artificielle œuvrent en faveur des droits :

  • Promotion de l’équité

Il est indispensable de s’attaquer à l’immense problème des données historiques biaisées et des logiciels qui renforcent les inégalités existantes.

  • Transparence totale

Si les systèmes basés sur l’apprentissage profond sont incapables de répondre à nos interrogations, faut-il réellement y avoir recours pour des décisions de première importance ? La question de la transparence à l’égard des utilisateurs se pose également : devrions-nous être informés lorsqu’une décision est entièrement ou en partie automatisée ?

  • Obligation de rendre des comptes

Qui est responsable lorsqu’un système ne fonctionne pas comme il le devrait (en supposant que l’on puisse l’interroger pour mettre ses erreurs en lumière) ? Si les systèmes basés sur l’IA deviennent des décideurs essentiels de notre société, comment mettre en place des mécanismes de surveillance et d’obligation de rendre des comptes qui leur sont dédiés ? La responsabilité des résultats incombe-t-elle aux développeurs de ces logiciels, ou bien aux entreprises ou gouvernements qui les utilisent ?

  • Œuvrer véritablement en faveur de l’égalité

Nous n’avons pas encore abordé la question des personnes qui développent ces logiciels et de leurs destinataires. Si la discrimination en matière de données peut renforcer les inégalités, il en va de même pour l’accès limité ou inexistant aux technologies avancées. Les concepteurs et les propriétaires des technologies sur lesquelles reposent des systèmes présents dans notre société ont beaucoup plus de pouvoir que le reste de la population. Les diversités géographiques, de genre et d’appartenance ethnique doivent être correctement prises en compte à mesure que l’intelligence artificielle progresse.

  • Une intelligence artificielle qui fait des droits un élément fondamental

Le développement et la mise en œuvre de systèmes basés sur l’IA entraînent de profondes conséquences sur les droits. Il est indispensable que les entreprises technologiques comprennent le coût humain potentiel des outils qu’elles développent et qu’elles tiennent sérieusement compte des risques, avant que ces technologies n’aient une influence sur des vies. Il est possible de développer une « intelligence artificielle bienveillante ». Nous devons simplement veiller à ce qu’elle œuvre au bien de tous, et pas de quelques-uns.