Fue el escándalo que finalmente sacó a la luz el lado oscuro de la economía de macrodatos (también llamados big data) que sustenta Internet. “El gran hackeo”, un nuevo e impactante documental que se estrena hoy, cuenta desde dentro cómo una empresa, Cambridge Analytica, utilizó indebidamente datos personales de Facebook para dirigirse a personas concretas y manipular a los votantes indecisos en las elecciones estadounidenses.
Una de las preguntas más urgentes e incómodas que plantea “El gran hackeo” es: ¿hasta qué punto somos susceptibles a esa manipulación del comportamiento?
Joe Westby
Sin embargo, como dice a los realizadores del documental el ex consejero delegado de la ya desaparecida Cambridge Analytica, “no se trata de una sola empresa”. El documental va más allá y nos abre los ojos a la manera en que nuestras vidas están sometidas a una vigilancia —y control— constantes mediante la tecnología digital, y aborda sin cortapisas la cuestión de hasta qué punto el mismo modelo empresarial de algunas empresas de alta tecnología puede constituir una enorme amenaza para nuestros derechos humanos.
En el mundo online y digital, todo lo que haces deja un “rastro de datos”: un registro de todo, desde cuándo pones combustible en tu vehículo hasta qué sitios web has visitado. Cuando se combinan, incluso datos aparentemente inocuos pueden revelar mucho acerca de una persona.
Cambridge Analytica alardeó de tener 5.000 datos específicos sobre cada votante estadounidense. Según afirmó, aplicando un análisis “psicográfico” a su conjunto de datos, podía determinar el tipo de personalidad de cada votante y luego dirigirle mensajes individuales específicamente diseñados con el fin de influir en su comportamiento. La fuente más importante de datos era Facebook. A través de la aplicación de un tercero, Cambridge Analytica obtuvo indebidamente datos de hasta 87 millones de perfiles de Facebook, que incluían actualizaciones de estado, indicaciones de “me gusta” e incluso mensajes privados.
Pero este incidente no fue una anomalía. Fue la consecuencia inevitable de un sistema basado en recopilar y monetizar nuestra información: el modelo empresarial que la académica Shoshana Zuboff denomina “capitalismo de vigilancia”. Los pilares fundamentales del modelo son: recopilar enormes cantidades de datos sobre personas, utilizarlos para deducir perfiles increíblemente detallados de su vida y su comportamiento, y monetizarlos vendiendo esas predicciones a otras partes, por ejemplo anunciantes. Cambridge Analytica se limitó a utilizar ese mismo modelo básico para dirigirse a votantes, en lugar de a consumidores.
Este modelo se ha convertido en el núcleo de la economía de datos, y sustenta un complejo ecosistema de empresas tecnológicas, corredores de datos, anunciantes y otros. Pero son los pioneros del modelo, Google y Facebook, los que tienen un acceso inigualable al seguimiento y la monetización de nuestras vidas, al controlar los principales portales —fuera de China— al mundo online (entre ellos, Google Search, Chrome, Android, YouTube, Instagram y WhatsApp).
Facebook y Google han llenado almacenes de datos con un volumen sin precedentes de información sobre seres humanos. Es algo que va mucho más allá de los datos que hayas decidido compartir en sus plataformas, e incluye la inmensa cantidad de datos registrados cada vez que entras en el mundo digital.
Joe Westby
Por supuesto, Facebook y Google han manifestado reiteradamente su compromiso de respetar los derechos humanos. Sin embargo, cada vez con más frecuencia, nos vemos obligados a preguntar si el propio modelo de vigilancia de Internet entra inherentemente en conflicto con nuestros derechos humanos.
Facebook y Google han llenado almacenes de datos con un volumen sin precedentes de información sobre seres humanos. Es algo que va mucho más allá de los datos que hayas decidido compartir en sus plataformas, e incluye la inmensa cantidad de datos registrados cada vez que entras en el mundo digital. La vigilancia empresarial masiva a semejante escala amenaza la esencia misma del derecho a la privacidad. De hecho, en 2010, el director ejecutivo de Facebook, Mark Zuckerberg, en una famosa declaración, admitió que las redes sociales ya habían cambiado la privacidad como “norma social”.
Sin embargo, la recopilación de datos es sólo la primera parte de la historia. El siguiente paso es utilizar complejos análisis impulsados por el aprendizaje automático para elaborar perfiles de personas y, de esa manera, influir en su comportamiento. En medio de la agitación causada por Cambridge Analytica, las prácticas de perfilación (profiling) del propio Facebook han eludido en gran medida el escrutinio. La empresa ha explorado la perfilación de personalidades, así como maneras de manipular las emociones y dirigirse a la gente basándose en sus vulnerabilidades psicológicas, por ejemplo cuando se sienten “inútiles” o “inseguras”. Google desarrolló una herramienta para dirigir anuncios publicitarios de forma tan precisa que pueden influir en las creencias de la gente y cambiar su comportamiento mediante la “ingeniería social”. Aunque inicialmente esta herramienta se desarrolló para luchar contra el extremismo islámico, está a disposición pública para que cualquiera la utilice (debida o indebidamente).
Una de las preguntas más urgentes e incómodas que plantea “El gran hackeo” es: ¿hasta qué punto somos susceptibles a esa manipulación del comportamiento? En última instancia, si estas capacidades son tan poderosas como las empresas y sus clientes afirman, constituyen una amenaza real a nuestra capacidad de tomar decisiones autónomas, o incluso a nuestro derecho de opinión, socavando el valor fundamental de la dignidad que sustenta todos los derechos humanos. La publicidad y la propaganda no son nuevas, pero no hay precedentes de mensajes dirigidos a personas concretas de una manera tan íntima y profunda, y a una escala que abarca poblaciones enteras.
La presión para atraer la atención de los usuarios y mantenerlos en las plataformas también puede fomentar la actual tendencia tóxica hacia la política de demonización.
Joe Westby
Este modelo también puede ayudar a alimentar la discriminación. Las empresas —y los gobiernos— podrían abusar fácilmente de los análisis de datos para segregar a personas en función de su raza, etnia, religión, género u otras características protegidas. La presión para atraer la atención de los usuarios y mantenerlos en las plataformas también puede fomentar la actual tendencia tóxica hacia la política de demonización. La gente tiene más probabilidades de hacer clic en contenidos sensacionalistas o incendiarios, lo que lleva a las plataformas a favorecer sistemáticamente las teorías de la conspiración, la misoginia y el racismo.
¿Qué se puede hacer? El modelo empresarial impulsado por datos representa un problema sistémico y estructural que no será fácil de abordar y que requiere una combinación de soluciones políticas y normativas. Sin duda, parte de la respuesta es una protección de datos más firme: el cumplimiento debido del Reglamento general de protección de datos de la Unión Europea, de alcance internacional, y su utilización como modelo en otros países, mitigaría el alcance de la prospección de datos y la perfilación.
También se han vuelto habituales los llamamientos más radicales para obligar a las grandes empresas tecnológicas a dividirse, y el sector ya está siendo examinado por las autoridades relativas a la competencia en diversas jurisdicciones. Una reciente decisión de la Oficina Federal de Defensa de la Competencia alemana de limitar el intercambio y la recopilación de datos entre Facebook y WhatsApp es un ejemplo de una medida concreta para luchar contra la concentración de poder en los grandes actores.
Sean cuales sean las herramientas normativas que se utilicen, es fundamental que estén basadas en un análisis de los riesgos de derechos humanos que plantea este modelo. Los derechos humanos brindan el único marco internacional y jurídicamente vinculante que puede reflejar las múltiples formas en que el modelo empresarial está afectando a nuestras vidas y a lo que significa ser humano, además de hacer rendir cuentas a las empresas.
Lo que está claro es que los esfuerzos actuales no abordan las causas fundamentales del problema. Hace dos semanas, los reguladores estadounidenses aprobaron imponer a Facebook el pago de una compensación récord de 5.000 millones de dólares por la causa de Cambridge Analytica; sin embargo, cuando se hizo pública la noticia de la multa, el precio de las acciones de Facebook subió.
Moraleja: la empresa y sus inversores estarán contentos si esto se queda en un incidente aislado. Les costará una multa relativamente simbólica —5.000 millones de dólares son migajas para una empresa que obtiene unos beneficios netos de 22.000 millones de dólares al año— y tendrán que introducir unas cuantas mejoras en sus protecciones de privacidad, pero luego volverán a funcionar como si nada.
No podemos permitir que eso suceda. Ya es hora de hacer frente al impacto del propio “capitalismo de vigilancia” en los derechos humanos.