Resumen

En la era digital, los derechos humanos son más importantes que nunca. Garantizan que podamos expresarnos en Internet, compartir opiniones, y crear, usar y acceder a tecnología de un modo justo y seguro.

La tecnología se puede usar como una vía para ejercer la libertad de expresión, exigir rendición de cuentas a los gobiernos y denunciar conductas indebidas.

Pero también representa una amenaza sistémica para los derechos humanos al reproducir la discriminación estructural contra los grupos marginados en la función policial, la gestión de la migración, la protección social y el acceso a la atención de la salud.

Las herramientas de vigilancia también tienen múltiples perjuicios para los grupos que ya sufren marginación en todo el mundo.

Nuestra misión es responder a las nuevas amenazas para los derechos humanos en la era digital y contribuir a definir y proteger los derechos de cara al futuro.

Exigimos responsabilidades a las grandes empresas tecnológicas, mientras hacemos frente al Estado digital y automatizado y luchamos contra la vigilancia y la censura de los gobiernos que estas tecnologías facilitan cada vez en mayor grado.

Por “Estado digital y automatizado” se entiende el hecho de que los gobiernos recurren cada vez más a la tecnología para tomar decisiones esenciales relativas a los sistemas de gestión de la protección social, la migración y el asilo.

Nuestra visión es la de un futuro en el que la tecnología facilite la protección de los derechos humanos y una sociedad equitativa.

En la era digital, los derechos humanos posibilitan una participación justa en los entornos digitales de un modoseguro, sujeto a rendición de cuentas e incluyente, al garantizar la libertad de expresión, la privacidad, la igualdad, la ausencia de discriminación y la protección de los datos.

Cada vez hacemos más nuestra vida en el entorno digital, y nuestros derechos deben estar protegidos.

Cómo repercute la tecnología en la sociedad

En un momento en el que el desarrollo tecnológico avanza a un ritmo exponencial y el poder y el alcance de las empresas tecnológicas se expande a todo el mundo, es más importante que nunca examinar desde una perspectiva crítica a quienes beneficia ese desarrollo y a quienes perjudica.

a portrait of Fabian Rogers
Fabian Rogers es un activista de la ciudad de Nueva York que, junto con el resto de inquilinos de su edificio, logró oponerse a los intentos de instalar un sistema de cámaras de reconocimiento facial en su complejo de viviendas.

Rendición de cuentas de las grandes empresas tecnológicas 

Las grandes empresas tecnológicas ejercen una influencia inmensa en nuestra vida. Nuestra dependencia cada vez mayor de las grandes empresas tecnológicas ha permitido que unas pocas empresas menoscaben nuestra privacidad y rastreen todos y cada uno de nuestros movimientos, remodelando nuestras interacciones y prediciendo nuestro comportamiento para su beneficio económico.

Su modelo empresarial basado en la vigilancia supone una amenaza sistémica para nuestros derechos humanos, y en especial los de los niños y niñas. Tenemos escaso control sobre la información que recopilan las empresas y los gobiernos sobre nosotros, sobre el uso que hacen de ella y sobre las personas con quienes la comparten.

Ante la creciente lacra de la desinformación, la proliferación del odio y el racismo online, las grandes empresas tecnológicas deben hacer más por respetar los derechos humanos. Por eso hacemos campaña en favor de medidas reguladoras que obliguen a las grandes empresas tecnológicas a cumplir con su responsabilidad en materia de derechos humanos.

Los algoritmos son procesos, conjuntos de reglas o instrucciones que permiten a los programas informáticos reunir distintas fuentes de información y generar resultados. También se utilizan para determinar el contenido que ven los usuarios y usuarias de las redes sociales.

Están en todas partes, en los distintos ámbitos de nuestra vida. Por ejemplo, ya se utilizan para gestionar la labor policial y los sistemas de protección social y de justicia penal.

an illustration with the facebook logo and a sea of hateful posts
Un informe de Amnistía da cuenta de cómo Meta ha contribuido a la comisión de abusos graves contra los derechos humanos contra la comunidad tigriana del norte de Etiopía. El informe revela que Meta hizo caso omiso de los avisos de la sociedad civil que alertaban a la empresa de que no estaba poniendo en práctica la diligencia debida para impedir contenido incendiario que incitaba a la violencia, el odio y la discriminación.

Caso práctico: El papel de Meta en la limpieza étnica de la población rohinyá

En septiembre de 2022, Amnistía publicó una amplia investigación sobre cómo Meta había amplificado el odio y la discriminación contra la población rohinyá en Myanmar, y puso en marcha una campaña internacional para exigir a Meta reparación para la comunidad rohinyá. El informe de Amnistía La atrocidad social es el primer análisis de derechos humanos en profundidad que establece la contribución de Meta a las graves atrocidades perpetradas contra la población rohinyá en 2017.

Reveló que los algoritmos de Facebook estaban diseñados para maximizar la “interacción de las personas usuarias” a cualquier precio, lo que provocó la distribución y amplificación desproporcionadas de odio y desinformación contra la población rohinyá en toda la plataforma y, por consiguiente, ayudó a crear el entorno propicio para la espantosa violencia masiva que se produjo. La historia del refugiado rohinyá Maung Sawyeddollah ilustra el efecto que tuvo la contribución de Meta a la proliferación del odio y la discriminación.

También nos mantenemos vigilantes ante las maniobras de los gobiernos para instrumentalizar las grandes plataformas tecnológicas, como Facebook, con el fin de censurar y silenciar a los defensores y defensoras de los derechos humanos, como las que pusimos de manifiesto en nuestro informe de 2020 sobre Vietnam.

Caso práctico: TikTok y la salud mental infantil

Amnistía Internacional ha documentado los daños sistémicos del modelo de negocio de TikTok, basado en la vigilancia, destacando el abuso de la plataforma contra el derecho a la privacidad, su diseño adictivo y el papel que desempeña en agravar problemas de salud mental de los niños, niñas y jóvenes.

Nuestros dos informes —Empujados a la oscuridad: El feed “Para ti” de TikTok fomenta la autolesión y la ideación suicida y“Siento que no se me protege”: Emboscada en la red de vigilancia de TikTok— ponen de relieve los abusos que sufren niños, niñas y jóvenes al usar TikTok y los modos en que el sistema de recomendación de TikTok y su modelo de negocio subyacente provocan esos abusos.

Graphic of a mobile phone with a blue figure on the screen, sitting with their head bowed. The phone is melting into a purple TikTok wormhole.
Imagen que ilustra los abusos que experimentan los niños, niñas y jóvenes en TikTok.

Vigilancia y privacidad

Al mismo tiempo, vemos cómo, en todo el mundo, se utilizan indebidamente tecnologías avanzadas para espiar, hostigar e intimidar a personas defensoras de los derechos humanos —incluidos activistas juveniles— y para sofocar movimientos sociales.

Además de examinar las tecnologías que plantean problemas, debemos combatir las condiciones sociales, económicas y políticas que permiten o fomentan el uso indebido de la tecnología por quienes ostentan el poder, y el impacto de esas condiciones sobre sectores concretos de población, como las mujeres, las minorías raciales, étnicas y religiosas, los niños y niñas, la población LGBTQIA+ y las personas afectadas por la pobreza y la desigualdad.

La tecnología debe facilitar el acceso a la información en lugar de censurarlo, como ocurre en Estados Unidos, donde las empresas tecnológicas han sido acusadas de facilitar la censura online de contenido sobre los derechos reproductivos.

Todas las personas tenemos derecho a acceder a información esencial sobre la salud y los derechos reproductivos, incluido el aborto médico.

an image of someone at a protest wearing large clown glasses that say 'Stop Spying'
Manifestante en una protesta contra el uso de la vigilancia por parte de los organismos de seguridad de Estados Unidos.

Tipos de vigilancia

  • El reconocimiento facial es una forma de determinar o confirmar la identidad de una persona utilizando sus rasgos faciales a partir de una fotografía o un vídeo.
  • La vigilancia biométrica es el uso de características humanas para identificar a personas. Los escáneres de huellas dactilares y los sistemas de identificación facial son dos herramientas comunes de vigilancia biométrica.
  • La vigilancia impulsada por inteligencia artificial es el uso de inteligencia artificial y tecnología de vigilancia para vigilar, rastrear, analizar e identificar a personas, lugares y objetos.

Vigilancia asistida por inteligencia artificial

Gobiernos y empresas emplean la vigilancia asistida por inteligencia artificial para diversos fines, y algunos de ellos, como la vigilancia pública, tienen consecuencias en los derechos humanos.

De ahí la urgencia de proporcionar orientación y recomendaciones detalladas sobre el uso de este tipo de tecnologías. Nuestras investigaciones ofrecen más indicios detallados que respaldan la necesidad de prohibir el uso de las tecnologías que son incompatibles con los derechos humanos.

Continuaremos rastreando, investigando y propugnando salvaguardas más sólidas en el diseño y uso de tecnologías nuevas y de vanguardia, incluidos la inteligencia artificial y el aprendizaje automático, los sistemas biométricos con reconocimiento facial y las nuevas “ciudades inteligentes” o infraestructuras urbanas digitales.

a pile of letters and postcard sent into support of Edward Snowden during Amnesty's Write for Rights campaign
Más de un millón de simpatizantes de Amnistía de todo el mundo enviaron cartas de solidaridad con Edward Snowden, exagente de los servicios de inteligencia denunciante de irregularidades que desempeñó un papel fundamental en sacar a la luz la escandalosa magnitud de la vigilancia masiva a escala mundial.

Caso práctico: Ban the Scan (“Veto al escaneo”)

En enero de 2021, Amnesty Tech lanzó la campaña Ban the Scan (“Veto al escaneo”), para pedir la prohibición de las tecnologías de reconocimiento facial con fines identificativos.

En el marco de esta campaña, publicamos casos prácticos sobre el impacto de las tecnologías de reconocimiento facial en Nueva York, que afectan de manera desproporcionada a las personas de color y amenazan el derecho de protesta pacífica. También pusimos en marcha el proyecto “Decode Surveillance NYC” (Descodifiquemos la vigilancia de Nueva York), que contó con miles de voluntarios y voluntarias de todo el mundo para localizar en la ciudad de Nueva York las cámaras de circuito cerrado de televisión y otras cámaras públicas que pueden usarse con programas de reconocimiento facial.

Posteriormente la campaña Ban the Scan se amplió para abarcar el uso policial abusivo de la tecnología de reconocimiento facial en Hyderabad (India) y en Jerusalén Oriental y Hebrón (Territorios Palestinos Ocupados) con la publicación del informe de Amnistía Apartheid automatizado.

Vídeo sobre el uso de la tecnología de reconocimiento facial y la actuación policial racista.

Vigilancia selectiva de activistas

Los organismos encargados de hacer cumplir la ley, así como los militares y los de inteligencia, son los primeros usuarios y clientes de software espía y de las empresas de vigilancia.

Los usan para averiguar determinada información, como el paradero de una persona, las fuentes de una investigación periodística, los pormenores de la organización de una manifestación o información sobre corrupción y pruebas de conductas delictivas que alguien pueda poseer.

Los gobiernos sostienen que utilizan estas herramientas de vigilancia contra “delincuentes y terroristas”, pero, en realidad, quienes más sufren los ataques con programas espía como Predator son las personas que ejercen el periodismo, el activismo y la disidencia. El uso ilegítimo del software espía vulnera muchos derechos humanos, como los relativos a la privacidad y a la libertad de expresión, opinión, reunión y asociación.

Dicho esto, queda claro que el software espía perjudica a diferentes personas de múltiples formas. Los datos se pueden utilizar como arma para cometer más abusos, dentro y fuera de Internet, especialmente contra las personas que ya sufren discriminación por su identidad. Estos abusos pueden darse de muchas formas, como el chantaje, la revelación de datos personales, el ciberacecho, el hostigamiento y la intimidación.

El software espía es un tipo de software malicioso. Interfiere en el funcionamiento normal de un dispositivo para recopilar información sin alertar a la persona usuaria y después la envía a otra entidad no autorizada.

El software espía altamente invasivo permite el acceso ilimitado a un dispositivo por defecto. No deja rastro, por lo que es casi imposible que la persona usuaria sepa qué datos se han obtenido.

an illustration with a circle around activists. Outside the circle are mysterious shadows that are spying

Caso práctico: Pegasus, de NSO Group

Nuestra investigación muestra que el software espía Pegasus de NSO Group se ha utilizado para atacar a activistas, periodistas y dirigentes de la esfera política de todo el mundo.

Muestra que puede instalarse subrepticiamente en el teléfono de las víctimas, proporcionando al atacante pleno acceso a los mensajes, correos electrónicos, elementos multimedia, micrófono, cámara, llamadas y contactos del teléfono.

La investigación determinó que Pegasus fue utilizado por agentes de Arabia Saudí —pese a que estos lo nieguen— para atacar a familiares del periodista saudí Jamal Khashoggi, una de tantas de víctimas de Pegasus, antes y después de su asesinato en Estambul el 2 de octubre de 2018 a manos de agentes saudíes.

Membresía y simpatizantes de Amnistía Internacional se manifiestan contra la presencia de NSO Group en la Exposición Internacional de Seguridad celebrada en Londres el 28 de septiembre de 2021.

Automatización del Estado e inteligencia artificial

El rasgo definitorio de esta nueva era tecnológica es la inteligencia artificial, de la misma forma que Internet lo fue de la anterior. La inteligencia artificial se está incorporando a casi todos los aspectos de nuestra vida diaria, configurándolo y mediatizándolo todo, desde las manufacturas y los servicios financieros hasta la atención médica y la economía.

¿Cómo utilizan los Estados los sistemas de automatización y algorítmicos?

Los gobiernos utilizan cada vez más los algoritmos en los procesos de toma de decisiones. Por ejemplo, en contextos de prestación de atención sanitaria, protección social, función policial y migración.

Esto plantea una serie de riesgos y posibles consecuencias perjudiciales para los derechos humanos, incluido el derecho a la igualdad y a la no discriminación, así como una serie de otros derechos económicos y sociales como el derecho a la educación y a la salud. Se necesitan medidas de transparencia y rendición de cuentas para proteger los derechos humanos y mitigar los posibles daños que pueda causar esta tecnología.

¿Qué es el sesgo algorítmico?

El sesgo algorítmico es lo que sucede cuando los algoritmos toman decisiones que perjudican de forma sistemática a determinados grupos de personas.

Puede dar lugar, por ejemplo, a que se prediga la probabilidad de que un delito sea cometido por una persona concreta o en un lugar determinado. Las personas o los lugares identificados son sometidos al escrutinio de la policía, lo que puede constituir discriminación selectiva.

Placa de circuitos electrónicos complejos con un chip de inteligencia artificial.

Caso práctico: Pobreza y discriminación en el Estado del bienestar serbio

El informe Trapped by Automation: Poverty and Discrimination in Serbia’s Welfare State documenta el modo en que las comunidades empobrecidas y marginadas de Serbia se ven abocadas a una mayor pobreza porque un sistema de gestión automatizada de las prestaciones sociales financiado por el Banco Mundial les retira la asistencia social.

La población romaní y con discapacidad está siendo la más afectada.

Ilustración sobre un fondo azul oscuro de una mano holográfica de color verde fluorescente señalando a una persona.

Tendencias tecnológicas futuras

Las tecnologías emergentes seguirán transformando nuestras sociedades.

Los gobiernos recurren cada vez más a las herramientas de inteligencia artificial en los procesos de toma de decisiones del sector público. Esto afectará a la vida y los derechos de las personas.

En Amnistía nos centramos en determinar las posibles implicaciones para los derechos humanos de tecnologías emergentes como la inteligencia artificial generativa, y posteriormente interpelamos a los gobiernos y las empresas a fin de garantizar que esas tecnologías se desarrollan y despliegan respetando los derechos.

El desarrollo e implantación de nuevas tecnologías debe plegarse a unas directrices de rendición de cuentas y marcos de políticas sólidos que protejan los derechos humanos en todos los lugares del mundo. La tecnología debe preservar los intereses de toda la humanidad, y no sólo los del puñado de propietarios de empresas ricos y poderosos que la desarrollan.

Los gobiernos son los responsables de garantizar que las empresas actúan con responsabilidad en sus inversiones tecnológicas.

¿Qué hace Amnistía para exigir rendición de cuentas a los gobiernos y las empresas tecnológicas?

Pensamos que ya es hora de que la tecnología ponga por delante a las personas y los derechos humanos.

Para ello, investigamos. Hacemos campaña. Captamos apoyos en favor de cambios de políticas. Luchamos por la justicia. Exigimos rendición de cuentas a los poderosos. Nuestra agenda para el futuro de la tecnología y los derechos humanos consiste en:

  • Reconfigurar Internet para anteponer a las personas y los derechos humanos, garantizando una regulación efectiva de las grandes empresas tecnológicas que proteja los derechos humanos, y que las empresas son más transparentes y más responsables.
  • Oponerse al uso de la tecnología para silenciar activistas, impidiendo la vigilancia ilícita, la censura y los cierres de Internet.
  • Reescribir el código para proteger los derechos humanos, y así garantizar que la programación ya no convierte la discriminación y los prejuicios en algoritmos cuyas decisiones afectan al rumbo de nuestras vidas.

Nuestra teoría del cambio es que podemos limitar el uso abusivo de la tecnología por parte de los gobiernos y las empresas mediante la aplicación, en primer lugar, de nuestra excelente capacidad de investigación y comunicación, basada en la acción, para identificar y resaltar las nuevas amenazas que entraña la tecnología para nuestros derechos y, en segundo lugar, mediante el potencial del movimiento de Amnistía para presionar a las empresas, los gobiernos del mundo de la mayoría global y el Norte global y a instituciones multilaterales clave para que promulguen normativas responsables y efectivas que limiten los abusos detectados.

Dile a TikTok que ponga fin a la publicidad dirigida selectivamente a los usuarios y usuarias más jóvenes

Que Tiktok sea más seguro

Súmate a la campaña #FixTikTok para ayudar a arreglar TikTok y pedirle que incremente la seguridad de la plataforma para los niños, niñas y jóvenes.