La urgente pero difícil tarea de regular la inteligencia artificial

Por David Nolan, Hajira Maryam y Michael Kleinman, Amnesty Tech

El año 2023 marcó una nueva era de “revuelo en torno a la inteligencia artificial (IA)” que rápidamente empujó a los responsables de elaborar políticas a mantener debates sobre la seguridad y la regulación de las nuevas tecnologías de IA. El febril año tecnológico empezó con el lanzamiento de ChatGPT a finales de 2022 y terminó con el logro de un acuerdo pionero en la UE sobre una Ley de Inteligencia Artificial. Aunque el texto definitivo aún se está ultimando en reuniones técnicas que se celebrarán las próximas semanas, los primeros indicios señalan que el primer “reglamento de IA” del mundo occidental contribuye a proteger a las personas de las consecuencias negativas de la IA pero sigue quedándose corto en una serie de áreas cruciales, y no garantiza la protección de los derechos humanos, especialmente de las personas más marginadas. Esta ley se anunció poco después de que el gobierno de Reino Unido fuera anfitrión de una cumbre inaugural sobre la seguridad de la IA en noviembre de 2023, en la que dirigentes globales, actores clave del sector y grupos de la sociedad civil seleccionados se reunieron para debatir los riesgos de la IA. Aunque el creciente impulso y debate sobre la gobernanza de la IA es bienvenido, y se necesita urgentemente, la cuestión clave para 2024 es si estos debates generarán compromisos concretos y se centrarán en los riesgos actuales más importantes que entraña la IA, y especialmente —una cuestión fundamental– si se traducirá en más acciones sustanciales en otras jurisdicciones.

Aunque los desarrollos de la IA brindan ciertamente nuevas oportunidades y beneficios, no debemos ignorar los peligros documentados que estas herramientas suponen cuando se utilizan como medio de control social, vigilancia masiva y discriminación. Demasiado a menudo, los sistemas de IA están alimentados por enormes cantidades de datos privados y públicos que reflejan injusticias sociales y que con frecuencia dan lugar a resultados sesgados y a un aumento de la desigualdad. Desde las herramientas policiales predictivas hasta los sistemas automatizados que se usan en la toma de decisiones del sector público para determinar quién puede acceder a la atención médica y la asistencia social, pasando por la vigilancia de los movimientos de las personas migrantes y refugiadas, la IA ha socavado de manera flagrante y continua los derechos humanos de los sectores más marginados de la sociedad. Otras formas de IA, como los algoritmos de detección de fraudes, también han afectado desproporcionadamente a minorías étnicas, que han soportado devastadores problemas económicos documentados por Amnistía Internacional, mientras que la policía y las fuerzas de seguridad han utilizado la tecnología de reconocimiento facial para atacar a comunidades racializadas y afianzar el sistema israelí de apartheid.

Entonces, ¿por qué regular la IA resulta complejo y exigente? En primer lugar, por la imprecisa naturaleza del término IA en sí, que complica aún más los esfuerzos por regular esta tecnología. No existe un consenso generalizado sobre la definición de IA porque el término no se refiere a una única tecnología, sino que engloba una miríada de métodos y aplicaciones tecnológicas. El uso de sistemas de IA en muchos dominios diferentes del sector público y privado significa que en su desarrollo y despliegue están implicadas una gran cantidad de partes interesadas, lo cual supone que estos sistemas son resultado de insumos de trabajo, datos, software y economía y que cualquier regulación debe lidiar con los perjuicios que se generen de un extremo al otro. Además, estos sistemas no pueden considerarse estrictamente hardware ni software, sino que su impacto alcanza al contexto en el que se desarrollan e implementan, algo que la regulación debe tener en cuenta.

Ahora que entramos en 2024, es el momento de garantizar no sólo que los sistemas de IA respetan por diseño los derechos, sino también que las personas afectadas por estas tecnologías no sólo participan de forma significativa en la toma de decisiones sobre cómo debe regularse la IA, sino que además sus experiencias se sacan continuamente a la luz y centran estos debates.

Junto con el proceso legislativo de la UE, Reino Unido y Estados Unidos, entre otros, han establecido sus diferentes enfoques y hojas de ruta para identificar los riesgos clave que plantean las tecnologías de IA y para exponer cómo se proponen mitigarlos. Aunque estos procesos legislativos son muy complejos, este hecho no debe retrasar los esfuerzos para proteger a las personas de las consecuencias negativas, presentes y futuras, de la IA, y hay elementos cruciales que en Amnistía sabemos que cualquier propuesta de regulación debe contener. Tal regulación debe ser jurídicamente vinculante y considerar los riesgos ya documentados que la IA puede acarrear para las personas afectadas por estos sistemas. Los compromisos y principios del desarrollo y uso “responsable” de la IA —el núcleo del actual marco normativo favorable a la innovación que persigue Reino Unido— no brindan una protección adecuada frente a los riesgos de la tecnología emergente y deben tener carácter legal.

De igual modo, toda regulación debe incluir mecanismos más amplios de rendición de cuentas que vayan más allá de las evaluaciones técnicas respaldadas por el sector. Aunque estos mecanismos pueden ser una cadena útil dentro de un conjunto de herramientas normativo, especialmente en lo que se refiere a poner a prueba los sesgos algorítmicos, no puede obviarse la prohibición de los sistemas fundamentalmente incompatibles con los derechos humanos, sin importar la exactitud o la eficacia técnica que pretendan tener.

El proceso de la UE debe servir de aprendizaje a otros, que han de asegurarse de que no existen lagunas que permitan a los actores de los sectores público y privado eludir las obligaciones normativas, y eliminar todas las exenciones al uso de la IA en materia de seguridad nacional o cumplimiento de la ley es fundamental para lograrlo. También es importante que, cuando la regulación futura limite o prohíba el uso de ciertos sistemas de IA en una jurisdicción, no existan lagunas o vacíos normativos que permitan que esos mismos sistemas se exporten a otros países en los que puedan ser utilizados para menoscabar los derechos humanos de los grupos marginados. Este sigue siendo un vacío flagrante en los enfoques de Reino Unido, Estados Unidos y la UE, ya que no tienen en cuenta el desequilibrio global de poder que entrañan estas tecnologías, especialmente su impacto en las comunidades de la mayoría global cuyas voces no están representadas en estos debates. Ya ha habido casos documentados de trabajadores y trabajadoras externalizados que han sufrido explotación en Kenia y Pakistán por parte de empresas que desarrollan herramientas de IA.

Ahora que entramos en 2024, es el momento de garantizar no sólo que los sistemas de IA respetan por diseño los derechos, sino también que las personas afectadas por estas tecnologías no sólo participan de forma significativa en la toma de decisiones sobre cómo debe regularse la IA, sino que además sus experiencias se sacan continuamente a la luz y centran estos debates. Más que palabrería del legislador, lo que necesitamos es una regulación vinculante que haga rendir cuentas a las empresas y otros actores clave del sector, y que garantice que los beneficios no se logran a expensas de las salvaguardias de derechos humanos. Los esfuerzos de gobernanza internacionales, regionales y nacionales deben complementarse y catalizarse mutuamente, y los debates globales no deben producirse a expensas de una regulación nacional de peso o de unas normas regulatorias vinculantes: son elementos que no se excluyen mutuamente. Este es el nivel en el que se logra la rendición de cuentas: debemos aprender de los intentos pasados de regular la tecnología, lo que significa garantizar que se introducen unos mecanismos sólidos para permitir que las víctimas de violaciones de derechos causadas por la IA obtengan justicia.