Pays-Bas. Halte aux expérimentations dangereuses de surveillance de masse

La police néerlandaise doit cesser immédiatement d’utiliser des systèmes algorithmiques entraînant une surveillance de masse sans discernement et un profilage ethnique, indique Amnesty International dans un rapport qui expose la menace pour les droits humains que constitue la « police prédictive ».

Ce qui relevait jusqu’à récemment de la science-fiction est aujourd’hui une réalité pour la population des Pays-Bas. Le police prédictive soumet les gens à une surveillance de masse sans discernement, qui ne peut jamais être justifiée.

Merel Koning, responsable de la politique sur les technologies et les droits humains à Amnesty International

Ce rapport, intitulé We Sense Trouble, explique les dangers liés aux nouveaux projets de « police prédictive » actuellement déployés par les forces de l’ordre aux Pays-Bas. Qualifiés de « laboratoires vivants » par la police néerlandaise, ces projets s’appuient sur des modèles mathématiques pour évaluer le risque qu’une infraction soit commise par une personne donnée ou dans un lieu donné, afin que les mesures de maintien de l’ordre soient ensuite dirigées vers ces personnes ou lieux « à risque ».  

Amnesty International a enquêté sur un projet de police prédictive dans la ville de Roermond, baptisé Sensing Project. Cette expérimentation policière traite les habitants de Roermond comme des « cobayes » soumis à une surveillance de masse et cible de façon discriminatoire les personnes originaires de pays d’Europe de l’Est.

« Ce qui relevait jusqu’à récemment de la science-fiction est aujourd’hui une réalité pour la population des Pays-Bas. Le police prédictive soumet les gens à une surveillance de masse sans discernement, qui ne peut jamais être justifiée, a déclaré Merel Koning, responsable de la politique sur les technologies et les droits humains à Amnesty International.

« L’expérimentation problématique à Roermond, qui cible de façon discriminatoire les personnes originaires d’Europe de l’Est, révèle que les systèmes algorithmiques de maintien de l’ordre sont préjudiciables, et non prédictifs. Tandis que ce type de projets se multiplie à toute vitesse dans le pays, les garanties nécessaires pour contrer les nombreuses menaces qu’ils représentent pour les droits humains manquent cruellement. Le Parlement néerlandais doit agir pour faire cesser immédiatement l’utilisation de ces systèmes défaillants par nature. »

La conception et le développement des systèmes de police prédictive sont souvent vantés comme « objectifs » et « neutres », mais les préjugés et les stéréotypes sont ancrés dans les modèles et les algorithmes. Cela aboutit à des résultats discriminatoires, avec des scores de risque plus élevés pour certains groupes de population.

Amnesty International demande qu’une étude d’impact sur les droits humains soit rendue obligatoire avant l’utilisation de technologies de police prédictive. Pour l’heure, aucun des systèmes utilisés par la police néerlandaise n’a fait l’objet d’une évaluation approfondie sur le plan des droits humains.

Le Sensing Project

La police affirme que le Sensing Project vise à prévenir et détecter les infractions contre les biens commises par des « bandits mobiles » à Roermond.

Les autorités néerlandaises affirment que le système est neutre car il est fondé sur les données objectives de la délinquance, mais Amnesty International démontre que le Sensing Project est discriminatoire dans sa conception même, car il reflète des préjugés humains intégrés dans le maintien de l’ordre. Le fait qu’il soit centré principalement sur le « banditisme mobile », terme qui désigne les vols à la tire et les vols à l’étalage commis précisément par des personnes originaires de pays d’Europe de l’Est, entraîne un profilage ethnique automatisé.

À l’aide de caméras et d’autres capteurs, la police surveille de façon systématique toutes les personnes qui circulent à Roermond, en recueillant des informations sur les véhicules et les mouvements récurrents. Les données collectées sont ensuite traitées au moyen d’un modèle algorithmique qui calcule un « score de risque » pour chaque véhicule, grâce auquel la police est censée connaître la probabilité que le conducteur et les passagers commettent une infraction contre les biens dans la ville. L’un des indicateurs utilisés pour procéder à cette estimation est le fait que les occupants d’un véhicule soient originaires d’Europe de l’Est.

Lorsqu’un véhicule est identifié comme à haut risque, la police tentera de l’intercepter afin de contrôler les papiers du conducteur et des éventuels passagers. La législation néerlandaise ne comporte pas assez de garde-fous juridiques pour empêcher les contrôles et les fouilles arbitraires et discriminatoires.

« Les habitants de Roermond et toutes les personnes qui se rendent dans cette ville sont les cobayes d’une expérimentation qu’ils subissent sans leur consentement.  C’est un système discriminatoire par nature, conçu pour faire du profilage ethnique et cibler les personnes originaires d’Europe de l’Est, a déclaré Merel Koning.

« Les autorités néerlandaises doivent appeler à interrompre le Sensing Project et toutes les expérimentations similaires, qui bafouent de toute évidence le droit au respect de la vie privée, le droit à la protection des données et les principes de légalité et de non-discrimination. »

Amnesty International engage également les autorités néerlandaises à évaluer combien de personnes sont concernées par le Sensing Project et les autres projets expérimentaux de police prédictive, et quelles sont les conséquences sur ces personnes. Ces informations doivent être rendues publiques et des mesures doivent être prises pour permettre aux personnes touchées d’avoir accès à des voies de recours et de demander réparation.