Países Bajos: Pongan fin a los peligrosos experimentos policiales de vigilancia masiva

“La policía de Países Bajos debe dejar inmediatamente de usar sistemas algorítmicos que desembocan en una vigilancia masiva indiscriminada y el uso de criterios raciales”, afirma Amnistía Internacional en un informe que denuncia la amenaza que representa la “actuación policial predictiva” para los derechos humanos.

Lo que hasta hace poco pertenecía a la ciencia ficción es ahora una realidad para personas de todo Países Bajos. La actuación policial predictiva somete a las personas a vigilancia masiva indiscriminada, algo que nunca puede justificarse.
Merel Koning, responsable superior de políticas, tecnología y derechos humanos de Amnistía Internacional

El informe, titulado We Sense Trouble, documenta los peligros de los proyectos emergentes de “actuación policial predictiva” que están desplegando los organismos encargados de hacer cumplir la ley de Países Bajos. Estos proyectos, calificados de “laboratorios vivos” por la policía neerlandesa, usan modelos matemáticos para evaluar el riesgo de que determinada persona cometa un delito o que éste se cometa en determinado lugar, y luego dirigen los esfuerzos de aplicación de la ley hacia esas personas o lugares considerados de “alto riesgo”.

Amnistía Internacional investigó un proyecto de actuación policial predictiva en la ciudad de Roermond denominado Proyecto Detección. Este experimento policial trata a las personas de Roermond como conejillos de indias sometidos a vigilancia masiva y discrimina a las procedentes de países de Europa Oriental.

“Lo que hasta hace poco pertenecía a la ciencia ficción es ahora una realidad para personas de todo Países Bajos. La actuación policial predictiva somete a las personas a vigilancia masiva indiscriminada, algo que nunca puede justificarse”, afirmó Merel Koning, responsable superior de políticas, tecnología y derechos humanos de Amnistía Internacional.

“El problemático experimento de Roermond, que usa perfiles para las personas de Europa Oriental y las discrimina, pone de manifiesto que los sistemas policiales basados en algoritmos son perjudiciales, no predictivos. Aunque estos proyectos están proliferando rápidamente en el país, brillan por su ausencia las salvaguardias necesarias para abordar las numerosas amenazas que representan para los derechos humanos. El Parlamento neerlandés debe actuar para poner fin de inmediato al uso de estos sistemas fundamentalmente erróneos”.

El diseño y desarrollo de sistemas predictivos de actuación policial son publicitados a menudo como “objetivos” y “neutrales”, pero los prejuicios y estereotipos están arraigados en los modelos y algoritmos. Esto da resultados discriminatorios, con puntuaciones de mayor riesgo para ciertos grupos.

Amnistía Internacional pide una evaluación obligatoria del impacto en los derechos humanos de las tecnologías policiales predictivas antes de su uso. Hasta la fecha, ninguno de los sistemas que usa la policía neerlandesa ha sido sometido a una evaluación exhaustiva desde el punto de vista de los derechos humanos.

El Proyecto Detección

Según la policía, el Proyecto Detección está diseñado para prevenir y detectar delitos contra la propiedad cometidos por lo que se conoce como “bandidaje móvil” en Roermond.

Las autoridades neerlandesas afirman que el sistema es neutral y que está basado en datos objetivos sobre delincuencia; sin embargo, Amnistía Internacional documenta que el Proyecto Detección es discriminatorio en su propio diseño, pues refleja prejuicios humanos integrados en la actuación policial. El hecho de que el proyecto gire en torno sobre todo al “bandidaje móvil”, definido como la actividad de carteristas y hurtos en comercios cometidos específicamente por personas de Europa Oriental, desemboca en la aplicación de criterios raciales automáticos.

Con cámaras y otros sensores, la policía vigila sistemáticamente a todas las personas que circulan en automóvil en Roermond y sus alrededores, reuniendo información sobre vehículos y patrones de movimientos. Los datos recogidos se procesan después con un modelo algorítmico que calcula una “puntuación de riesgo” para cada vehículo, dato que la policía cree que informa de la probabilidad de que quien conduce y quienes viajan en el vehículo cometan un delito contra la propiedad. Uno de los indicadores usados para hacer esta valoración es si las personas a bordo del vehículo son de Europa Oriental.

Cuando un vehículo es identificado como de alto riesgo, la policía intentará interceptarlo y comprobar los documentos de identidad de la persona que conduce y de las que viajan con ella. La legislación neerlandesa carece de salvaguardias legales adecuadas para prevenir dar el alto y registrar de forma arbitraria y discriminatoria.

“Las personas residentes de Roermond, así como cualquiera que viaje a la ciudad, están siendo utilizadas de hecho como conejillos de indias en un experimento para el que no han dado su consentimiento. Este es un sistema intrínsecamente discriminatorio, diseñado para aplicar criterios raciales y ser utilizado contra las personas procedentes de Europa Oriental”, concluyó Merel Koning.

“Las autoridades neerlandesas deben pedir la paralización del Proyecto Detección y de experimentos similares, que constituyen una clara violación del derecho a la intimidad, el derecho a la protección de datos y los principios de legalidad y no discriminación”.

Amnistía Internacional también pide a las autoridades neerlandesas que evalúen cuántas personas se han visto afectadas por el Proyecto Detección y otros proyectos experimentales comparables de actuación policial predictiva y de qué forma lo han sido. Esta información deberá hacerse pública, junto con las medidas adoptadas para permitir un recurso efectivo y una reparación de las personas afectadas.