La información contenida en el presente comunicado de prensa puede resultar provocadora para algunas personas.
- Una investigación técnica en colaboración con Algorithmic Transparency Institute y AI Forensics reveló que, tras utilizar la plataforma 5 o 6 horas, prácticamente 1 de cada 2 vídeos estaba relacionado con la salud mental y era potencialmente nocivo, cifra que multiplicaba aproximadamente por 10 el volumen presentado a cuentas sin interés por la salud mental.
- Se produjo un efecto “espiral” aún más rápido cuando el equipo investigador visualizó de nuevo manualmente los vídeos relacionados con la salud mental sugeridos a las cuentas “sock puppet” que imitaban a personas usuarias de 13 años en Kenia, Filipinas y Estados Unidos.
- Pasados entre 3 y 20 minutos de investigación manual, más de la mitad de los vídeos del feed “Para ti” estaban relacionados con problemas de salud mental y muchos de los vídeos recomendados en una sola hora idealizaban, normalizaban o animaban al suicidio.
- El propio modelo de negocio de TikTok es intrínsecamente abusivo y privilegia la interacción para retener a las personas usuarias en la plataforma, con el fin de recolectar cada vez más datos sobre ellas. Las protecciones se aplican de forma desigual a las personas usuarias de distintos lugares del mundo.
El sistema de recomendación de contenidos de TikTok y sus prácticas invasivas de recolección de datos suponen un peligro para las personas jóvenes que utilizan la plataforma, puesto que amplifica contenidos depresivos y suicidas que podrían empeorar problemas de salud mental preexistentes, según muestran los dos informes complementarios que publica hoy Amnistía Internacional.
Los dos informes —Empujados a la oscuridad: El feed “Para ti” de TikTok fomenta la autolesión y la ideación suicida y “Siento que no se me protege”: Emboscada en la red de vigilancia de TikTok— ponen de relieve los abusos que sufren niños, niñas y jóvenes al usar TikTok y los modos en que el sistema de recomendación de TikTok y el modelo de negocio subyacente provocan esos abusos.
Los resultados de una investigación técnica desarrollada conjuntamente con las entidades asociadas —Algorithmic Transparency Institute (ATI), National Conference on Citizenship y AI Forensics— muestran que los niños, niñas y jóvenes que ven contenidos relacionados con la salud mental en la página “Para ti” de TikTok se ven rápidamente abocados a una espiral de contenidos potencialmente nocivos, incluidos vídeos que idealizan y fomentan el pensamiento depresivo, las autolesiones y el suicidio.
“Los resultados exponen las prácticas de diseño adictivo y manipulador de TikTok, cuyo propósito es retener a las personas usuarias para que interactúen el mayor tiempo posible. También muestran que el sistema algorítmico de recomendación de contenidos de la plataforma, al que se atribuye su rápido auge global, expone a niños, niñas y jóvenes con problemas de salud mental preexistentes a graves riesgos de sufrir daños”, ha declarado Lisa Dittmer, investigadora de Amnistía Internacional.
El sistema algorítmico de recomendación de contenidos de la plataforma, al que se atribuye su rápido auge global, expone a niños, niñas y jóvenes con problemas de salud mental preexistentes a graves riesgos de sufrir daños.
Lisa Dittmer, investigadora de Amnistía Internacional
El feed “Para ti”
En Empujados a la oscuridad: El feed “Para ti” de TikTok fomenta la autolesión y la ideación suicida se detallan los riesgos de que los intentos constantes de TikTok para captar la atención de las personas usuarias jóvenes intensifiquen problemas de salud mental como la depresión, la ansiedad y las autolesiones.
El feed “Para ti” de TikTok es una página altamente personalizada que puede desplazarse sin fin, que muestra contenidos recomendados algorítmicamente, seleccionados para reflejar lo que el sistema deduce que puede interesar a la persona usuaria.
La investigación técnica se desarrolló con más de 30 cuentas automatizadas creadas para representar a jóvenes de 13 años de Kenia y Estados Unidos a fin de medir los efectos del sistema de recomendación de TikTok sobre personas usuarias jóvenes. En una simulación adicional efectuada de forma manual se incluyeron una cuenta en Kenia, otra en Filipinas y otra en Estados Unidos.
La investigación técnica reveló que, tras utilizar la plataforma TikTok 5 o 6 horas, prácticamente 1 de cada 2 vídeos mostrados estaba relacionado con la salud mental y era potencialmente nocivo, cifra que multiplicaba aproximadamente por 10 el volumen presentado a cuentas sin interés por la salud mental.
Se produjo un efecto “espiral” aún más rápido cuando el equipo investigador visualizó de nuevo manualmente los vídeos relacionados con la salud mental sugeridos a las cuentas de investigación que imitaban a personas usuarias de 13 años en Kenia, Filipinas y Estados Unidos.
Pasados entre 3 y 20 minutos de investigación manual, más de la mitad de los vídeos del feed “Para ti” estaban relacionados con problemas de salud mental y muchos de los vídeos recomendados en una sola hora idealizaban, normalizaban o animaban al suicidio.
TikTok puede llevarle a lugares muy oscuros
Adictivo por diseño
Los debates de grupos-muestra, las entrevistas y las simulaciones de cuentas de TikTok de niños y niñas en Kenia, Filipinas y Estados Unidos, así como las pruebas existentes en los campos de la investigación sobre los daños de las redes sociales y la salud pública, revelan que el diseño de la plataforma de TikTok fomenta el uso malsano de la aplicación.
Cuando ves un vídeo triste con el que te identificas, de pronto toda la página “Para ti” está triste, entras en “tristok”.
Francis*, estudiante de 18 años de la provincia de Batangas, Filipinas
*Luis, universitario de 21 años de Manila diagnosticado de trastorno bipolar, relató a Amnistía Internacional su experiencia con el feed “Para ti” de TikTok.
“Es una madriguera en la que te adentras a partir de un solo vídeo. Si un vídeo logra captar tu atención, aunque no te guste, te lo presentan cuando vuelves a abrir TikTok y, como te resulta familiar, lo vuelves a ver. Al verlo de nuevo, su frecuencia en tu feed aumenta exponencialmente”, contó Luis.
*Francis, estudiante de 18 años de la provincia filipina de Batangas, observó: “Cuando ves un vídeo triste con el que te identificas, de pronto toda la página ‘Para ti’ está triste, entras en ‘tristok’. Afecta a mi estado de ánimo”.
Otro participante en el grupo-muestra explicó: “El contenido que veo —como vídeos en los que alguien está enfermo o se autodiagnostica— me lleva a pensar en exceso {aún} más. Afecta a mi mentalidad, me hace sentir que tengo los mismos síntomas y agrava mi ansiedad. Ni siquiera busco estos vídeos, sencillamente aparecen en mi feed”.
*Joyce, mujer de 21 años de Filipinas, afirmó: “La borré [la aplicación de TikTok] durante un tiempo, pero fue porque estaba muy enganchada a ella… Pasaba muchísimas horas en TikTok, simplemente navegando por los vídeos, debido a que no puedes evitar preguntarte qué saldrá a continuación al desplazar la pantalla”.
Niños, niñas y jóvenes entrevistados en Kenia declararon que consideraban que usar TikTok afectaba a sus tareas escolares y al tiempo dedicado a las relaciones sociales con sus amistades, y que provocaba que navegaran por sus feeds a altas horas de la noche en lugar de dormir lo suficiente.
Estos testimonios de niños, niñas y jóvenes fueron corroborados por especialistas en psicología de la adolescencia a quienes consultó Amnistía Internacional en el marco de la investigación.
Aunque las respuestas particulares de las personas jóvenes pueden variar, así como los factores contextuales que afectan al uso que efectúan de las redes sociales, TikTok, al igual que otras plataformas, ha determinado su diseño con la intención de maximizar el tiempo que pasan en la plataforma las personas usuarias.
“Nuestra investigación muestra que TikTok puede exponer a niños, niñas y jóvenes a graves riesgos para la salud si persiste en su actual modelo de negocio, más orientado a mantener los ojos fijos en la plataforma que a respetar el derecho a la salud de las personas usuarias”, ha declarado Lisa Dittmer, investigadora de Amnistía Internacional.
TikTok debería ser seguro por diseño, no adictivo.
La red de vigilancia
“Siento que no se me protege”: Emboscada en la red de vigilancia de TikTok muestra cómo las prácticas de recolección de datos de TikTok, que vulneran los derechos, apuntalan estas prácticas nocivas de captación de personas usuarias y se sustentan en tales prácticas.
La investigación de Amnistía Internacional muestra que el propio modelo de negocio de TikTok es intrínsecamente abusivo y privilegia la interacción para retener a las personas usuarias en la plataforma, con el fin de recolectar cada vez más datos sobre ellas. Luego TikTok utiliza estos datos para crear perfiles de las personas usuarias y generar inferencias sobre ellas, lo que le permite segmentarlas en grupos y dirigirse a ellas mediante contenidos y anuncios altamente personalizados para conseguir que sigan interactuando. Estos grupos y categorías se ponen también a disposición de los anunciantes para que puedan ofrecer anuncios personalizados a las personas usuarias.
Aun cuando TikTok ha instaurado ciertas políticas y prácticas para garantizar un mayor respeto de los derechos de niños y niñas, éstas difieren de una región a otra, lo que deja a los niños, niñas y jóvenes de unas partes del mundo expuestos a la recolección de datos con fines de explotación en otras.
“TikTok se dirige a las personas usuarias, niños y niñas incluidos, con prácticas de recolección de datos más invasivas en aquellas partes del mundo donde tienen menos protección para sus datos en virtud de la legislación y normativa local, lo que significa que los niños y las niñas que viven en países donde la normativa es laxa, incluidos muchos de la Mayoría Global, son objeto de los peores abusos contra el derecho a la privacidad”, ha declarado Lauren Armistead, directora adjunta del programa Amnesty Tech.
“TikTok debe respetar los derechos de todas sus personas usuarias jóvenes, no sólo en Europa, y prohibir toda la publicidad segmentada que esté dirigida a menores de 18 años en todo el mundo”.
TikTok también debe dejar de hiperpersonalizar por defecto el feed “Para ti” y, en su lugar, permitir que las personas usuarias elijan de forma activa qué intereses originan la recomendación de contenidos, sobre la base de un consentimiento bien fundado y de si desean ver un feed personalizado.
Aunque Amnistía Internacional pide a TikTok que dé estos pasos urgentes hacia un modelo de negocio que respete los derechos, es necesaria también una legislación vinculante para proteger y hacer realidad los derechos de niños, niñas y jóvenes.
La mejor manera de proteger a niños y niñas del abuso de sus datos personales online es que los gobiernos prohíban por ley toda la publicidad segmentada que se base en una recolección invasiva de datos personales.
En respuesta a nuestras conclusiones, TikTok nos remitió a sus Normas de la comunidad, en las que se establece qué tipos de contenidos están prohibidos y, por tanto, en caso de que se denuncien o detecten de otro modo, se eliminan de la plataforma. En las normas, se declara que no está permitido “mostrar, promover o proporcionar instrucciones de suicidio y autolesiones, o cualquier desafío, reto, juego o pacto relacionado”, “mostrar o promover las bromas sobre el suicidio y las autolesiones” ni “compartir planes de suicidio y autolesiones”.
TikTok declaró que está en proceso de “elaborar un proceso de diligencia debida en materia de derechos humanos para toda la empresa que incluirá la realización periódica de evaluaciones de impacto en ese ámbito”. La empresa no proporcionó detalles sobre los riesgos específicos que ha identificado para los derechos humanos de niños, niñas y jóvenes. El hecho de que TikTok no cuente actualmente con un proceso de diligencia debida en materia de derechos humanos a nivel de empresa es un claro incumplimiento de la responsabilidad empresarial de respetar los derechos humanos.
No hace excepciones cuando se trata de menores de edad.
Atenta contra el derecho a la privacidad y a la libertad de pensamiento.
Información complementaria
Ambos informes se suman a las pruebas exploradas en previos informes de investigación de Amnistía Internacional. Gigantes de la vigilancia mostró cómo el modelo empresarial de Facebook y Google es intrínsecamente incompatible con el derecho a la privacidad y representa un peligro para diversos derechos más, como la libertad de opinión y de expresión, la libertad de pensamiento y el derecho a la igualdad y a no sufrir discriminación.
En los informes de Amnistía Internacional sobre Myanmar: La atrocidad social: Meta y el derecho a un recurso para la comunidad rohinyá y Etiopía: La inacción de Meta contribuyó a la comisión de abusos contra la comunidad tigriana durante el conflicto en el norte de Etiopía se reveló que el modelo de negocio de la plataforma Facebook basado en la interacción puede tener efectos devastadores a través de la amplificación de contenidos extremos que incitan a la violencia, el odio y la discriminación, lo que en última instancia contribuye a graves violaciones de los derechos humanos y a abusos contra éstos.
Juntos, estos informes amplían la creciente base de pruebas de la campaña global de Amnistía Internacional para exigir la rendición de cuentas empresarial y la reparación de los abusos contra los derechos humanos asociados al modelo de negocio de Meta, Google, TikTok y otras plataformas “Big Tech”, basado en la vigilancia.
Escrito por Luis (seudónimo), estudiante de 21 años de edad residente en Manila.
¿Qué es TikTok?
Utilizo TikTok principalmente como entretenimiento. TikTok es una plataforma que permite ver una gran variedad de vídeos cortos. Mientras que otras redes sociales como Facebook, Twitter o Instagram se centran en textos o imágenes, TikTok está muy enfocada a los vídeos.
En otras redes sociales que giran en torno a los vídeos, como YouTube, también se recomiendan contenidos, pero el control sobre lo que se ve es mayor. Hay que buscar y hacer clic.
En TikTok, el contenido viene dado. TikTok sirve contenidos, en vez de ofrecerlos. Acabas desplazándote por una larga lista que posiblemente no tenga fin. Como los vídeos son cortos, no te das cuenta del paso del tiempo y pronto se convierte en horas. Es adictivo porque el ritmo es rápido y el contenido, espectacular. TikTok decide por ti.
Descender por la espiral
Se nota que el feed “Para ti” se basa en lo que se ha visto antes. Aunque dediques poco tiempo a ver un vídeo concreto, TikTok te mostrará el mismo tipo de contenidos a medida que vayas desplazándolos. A mí me parece una espiral descendente. Con sólo echar un vistazo, corres el riesgo de ir descendiendo por ella y luego ese tipo de contenido comienza a bombardearte.
No sólo aumenta su frecuencia, sino también su intensidad. Todo empieza con un solo vídeo, como el conejo de Alicia que te lleva al “país de las maravillas” o el payaso pelirrojo hacia las alcantarillas.
Lo siguiente que ves es una avalancha de vídeos sobre autolesiones o incluso la muerte, mezclados con vídeos que utilizan un lenguaje psicológico —psicohabla— que pretenden “desentrañar” mis sentimientos.
Como persona con trastorno bipolar de tipo II, yo utilizaba TikTok tanto en los periodos hiperactivos como en los depresivos. Cuando estoy en fase hiperactiva, TikTok me resulta atractivo porque la disonancia sonora de ritmo rápido estimula mi mente y me proporciona sensación de “euforia”.
Los vídeos son llamativos y energizantes, por lo que inducen una respuesta mental y corporal que, de continuar, acabaría por ser peligrosa. Es en esencia un “subidón” prolongado.
Cuando estoy de bajón, “libero” la mente desplazando el feed sin pensar. Entonces me encuentro con vídeos que reafirman mis emociones y quedo atrapado en ese tipo de contenido largo tiempo.
Si estoy deprimido, por ejemplo, me “fijo en exceso” o me quedo atascado en un solo vídeo de literatura y fotos tristes. Lo siguiente que veo es una avalancha de vídeos sobre autolesiones o incluso la muerte, mezclados con vídeos que utilizan un lenguaje psicológico —psicohabla— que pretenden “desentrañar” mis sentimientos.
Salir del pozo
En esos momentos TikTok parecía ser de ayuda, porque los vídeos validan tus sentimientos e incluso te permiten reflexionar sobre ellos, de forma genuina o no, con precisión o sin. Sin embargo, visto en retrospectiva, no hacía más que reforzar esos estados de ánimo.
Retrasó mi recuperación al arrastrarme por esa espiral e hizo que salir del pozo fuera aún más difícil.
El contenido incluso me hacía sentir más trastornado de lo que ya estoy de por sí a base de “patologizar” o tratar como anormales incluso las costumbres más mundanas. Y es aún más aterrador, porque va más allá de TikTok. De pronto, las otras redes sociales me mostraban los mismos contenidos.
Retrasó mi recuperación al arrastrarme por esa espiral e hizo que salir del pozo fuera aún más difícil.
Aunque mi estado de ánimo cambiara, el feed seguía mostrándome ese tipo de contenido. Por tanto, lo que yo hacía era tratar de “sabotear” el feed manualmente viendo, comentando e indicando que me gustaban otros tipos de contenidos hasta que aparecían esos géneros nuevos.
Se hace muy pesado, porque vas a contracorriente. Tienes que hacer un esfuerzo consciente para escapar de la espiral, pero ¿qué pasa si todavía estás en un momento difícil y te falta energía y lucidez mental?
Cómo hacer que TikTok sea más seguro para las personas jóvenes
Creo firmemente que, para que TikTok sea seguro, en primer lugar, la página “Para ti” no debería basarse excesivamente en las visualizaciones como indicadores de interés. Las recomendaciones deberían depender más de lo que le gusta a la persona usuaria, de lo que ésta sigue y de otras opciones a través de las cuales pueda expresar intereses intencionadamente. De este modo, tendría más control sobre lo que ve.
No basta con que haya un feed “Siguiendo” aparte, porque la plataforma debe ser capaz de equilibrar en un solo feed el contenido al que se ha suscrito la persona usuaria y ofrecerle la oportunidad de ir más allá. Da la sensación de que el feed “Siguiendo” es deliberadamente menos atractivo que el feed “Para ti”, porque este último parece más libre, aunque no sea así.
En segundo lugar, debería haber advertencias o descargos de responsabilidad más visibles en los contenidos, especialmente si tienen que ver con la salud mental. Lo peligroso es que estos vídeos utilizan un lenguaje psicológico o psicohabla para parecer dogmáticos, pero no sabemos si los creadores tienen conocimientos reales sobre lo que dicen. Ahí hay que distinguir entre los de profesionales y el resto.
En tercer lugar, TikTok debería también mostrar avisos que indiquen a la persona usuaria cuánto tiempo lleva en la plataforma. “Llevas 30 minutos utilizando TikTok. ¿Quieres continuar?”. Eso ayudaría a las personas usuarias que inconscientemente pasan horas en la espiral, lo que pone en riesgo su salud e incluso sus actividades diarias.
En cuarto lugar, TikTok debería disponer de una forma más visible y accesible para que las personas usuarias expresen que no les gustan determinados contenidos y que prefieren no verlos. Así se evitaría la pesadez de tener que “burlar” al algoritmo manualmente.
En quinto lugar, creo que la configuración por defecto de las redes sociales es recopilar datos sobre las personas usuarias en todas las plataformas y webs. Las redes sociales pueden ofrecer opciones para limitar o poner fin a algunos de estos ajustes, pero para empezar la configuración por defecto debería ser distinta. De este modo, se impediría que el círculo vicioso de contenidos se extienda a toda la presencia online de una persona.
En general, el problema no se limita sólo a TikTok. Radica en la lógica fundamental de las redes sociales de servirte lo que creen que tú quieres. Eliminan tu capacidad de acción, la asumen en tu lugar. Para ofrecer seguridad y basarse en los derechos, la alternativa es sencilla: Permitir que las personas usuarias configuren por sí mismas el feed con opciones visibles y accesibles, especialmente para las personas jóvenes. Permite que las personas usuarias “asciendan” en lugar de “descender”.
Estos blogs por invitación están escritos por activistas juveniles independientes y pretenden ofrecer una plataforma a las voces jóvenes. Se originaron en Pakistán y Argentina.
Duaa e Zahra, Pakistán
Duaa se ha graduado recientemente en Economía. Ha trabajado con organizaciones como Amnistía Internacional, la UNCTAD, Talloires Network, Girls Human Rights Hub, el Ministerio de Derechos Humanos de Pakistán y Gallup, principalmente en materia de derechos humanos y educación, y espera seguir contribuyendo a estos campos mediante la participación comunitaria sobre el terreno, la reforma política y jurídica, y el periodismo.
El precio que he pagado por TikTok
Mis manos parecen tener vida propia cuando desplazan un vídeo tras otro. Los segundos se convierten en minutos y éstos en horas, pero cuando entra la luz del sol por la ventana, me desconcierta: parece que apenas han pasado unos segundos. Tengo los ojos rojos de mirar la pantalla y creo que las repercusiones no van más allá: una noche en vela y el consiguiente cansancio a lo largo del día. Sin embargo, si pudiera observar mi vida con más perspectiva, a vista de pájaro, obtendría una visión más completa: la autocrítica se ha convertido en mi idioma, la validación de los demás (o su ausencia) moldea casi todo lo que pienso y siento, ya casi nada resulta estimulante o sorprendente, el aburrimiento y el aislamiento son abrumadoramente familiares, me siento indolente, excluida y fuera de lugar la mayoría de las veces. Mientras tanto, sigue absorbiéndome la página “Para ti” de TikTok, optimizada para maximizar mi interacción aun cuando observo que mi bienestar se va desintegrando de forma sutil.
TikTok, una de las muchas sensaciones de nuestra generación. Entra en la aplicación y deja que se encargue de todo arrastrándote a un mundo creado sólo “para ti” durante horas y horas. ¿Qué podría salir mal?
Existe el riesgo de que una plataforma diseñada para ser hiperpersonalizada y adictiva se convierta en caldo de cultivo para la toxicidad: niños y niñas pueden ver contenidos provocativos que afecten a su salud mental y el algoritmo de TikTok tiene el potencial de transformar esas visualizaciones en una espiral interminable de contenidos similares. Y bien, ¿qué importa si nuestros derechos a la privacidad, la salud y el libre pensamiento penden de un hilo, mientras generen beneficios a nuestra aplicación multimillonaria favorita?
Se podría alegar que TikTok responde a lo que aparentemente nos encanta, inundándonos con todo aquello que se le parezca. Yo replicaría que el encanto (especialmente el que se queda en la superficie) puede inducir a error. ¿De qué otra forma puede describirse la burbuja que el contenido exageradamente personalizado puede crear a nuestro alrededor hasta impedirnos pensar o sentir más allá de lo que pensamos y sentimos desde siempre? Dada la fragilidad de las emociones humanas, ver incluso un solo vídeo angustioso puede resultar provocador. No obstante, en el universo de TikTok, ver ese primer vídeo es una cuesta abajo que lleva a ver un vídeo tras otro. El algoritmo considera que las visualizaciones de contenidos sobre salud mental denotan un interés por el tema al que puede responder inundando un feed con vídeos similares capaces —según la investigación de Amnistía Internacional— de idealizar las autolesiones y el pensamiento depresivo, agravando así las vulnerabilidades psicológicas.
La fragilidad se intensifica cuando no hay nada a lo que agarrarse. Eso es exactamente lo que ocurre cuando TikTok, con su diseño adictivo integrado, empieza a consumir toda nuestra vida. El sueño, la escuela, el trabajo, las relaciones y las aficiones pierden valor ante la seductora luz de la pantalla y, de repente, sacrificarlo todo por ver “sólo un vídeo más” se convierte en algo tan sencillo que resulta casi absurdo. A fin de cuentas, nada molesta más que la vida misma distrayéndonos de TikTok, ¿o no?.
El consentimiento sólo es genuino cuando se sustenta en una elección libre y con conocimiento de causa. Sin embargo, aquí el problema (entre muchos otros) es que nunca hemos hecho esta elección de forma consciente. Aunque TikTok, como otras aplicaciones, tiene términos y condiciones que técnicamente “se aceptan”, pueden ser difíciles de entender y a menudo no están adaptados para menores de edad. Este hecho deja a las personas jóvenes a oscuras en lo que respecta al uso de sus datos y al modelo de negocio que se basa en la recolección masiva de datos personales. Es alarmante su desproporcionado impacto a lo largo de las fronteras geográficas. En Europa, donde la regulación es más estricta, TikTok se ve obligada a frenar su modelo de negocio basado en la vigilancia extractiva en lo que respecta a niños y niñas. Sin embargo, en otros lugares —incluido el Sur global— se aprovecha de la debilidad de las leyes o de la falta de aplicación de éstas y no hace extensivas las mismas protecciones a las personas jóvenes, quienes ven mermados sus derechos.
En respuesta a una amplia investigación y a los motivos de preocupación de las personas jóvenes, que han sacado a relucir la implacable realidad de TikTok, Amnistía Internacional insta a la empresa a que corrija sus operaciones. TikTok debe asumir responsabilidades y eliminar el daño por completo, atendiendo a los llamamientos de Amnistía en los que se pide la prohibición global de la publicidad selectiva dirigida a niños y niñas; que la personalización sea opcional y se base en un lenguaje adaptado a los niños y las niñas, en el consentimiento bien fundado y en una comunicación bidireccional activa; y que se introduzcan límites diarios.
Deleuze decía: “El pintor no pinta sobre una tela virgen, ni el escritor escribe en una página en blanco, sino que la página o la tela están ya tan cubiertas de tópicos preexistentes, preestablecidos, que primero hay que tachar, limpiar, laminar, incluso desmenuzar para hacer que pase una corriente de aire surgida del caos que nos aporte la visión”. Al tachar, limpiar, laminar y desmenuzar capas de dolor digital, pronto nos quedará espacio para respirar y tiempo para soñar. De modo que, si ahora cierro los ojos y me distancio de las vidas que podría tener hasta que todo quede a vista de pájaro, obtengo una imagen más completa: la empatía se convierte en mi idioma, la diversidad de experiencias y visiones dan forma al mundo, casi todo es informativo e inspirador, la creatividad y el sentido de comunidad son abrumadoramente familiares, y las personas nos sentimos empoderadas, incluidas e interconectadas en la mayoría de las ocasiones.
Abril, Argentina
Abril es una activista de derechos humanos que estudia actualmente Ciencias Políticas en la universidad. Forma parte del grupo de activistas juveniles de Amnistía Internacional Argentina y también del programa Clic por los DERECHOS. Además, es beneficiaria joven del programa de becas UNICEF Innocenti sobre Estudios Prospectivos.
La cara B de las redes sociales
En la era digital actual, las redes sociales como Tik Tok se han convertido en parte integral de nuestra vida. Estas plataformas nos ofrecen entretenimiento, conocimientos y la posibilidad de conectar con personas de todo el mundo. Sin embargo, tras una fachada de diversión e interconexión, se oculta una cara B que amenaza nuestros derechos y nos expone a grandes desigualdades sociales.
En los países de la Unión Europea y del Espacio Económico Europeo (EEE), la protección del derecho a la privacidad y la regulación de las redes sociales para niños, niñas y personas jóvenes se han convertido en cuestiones prioritarias en los últimos años. Las leyes de protección de datos restringen fuertemente la recogida y el uso de información personal en las plataformas. Estas normas tienen como objetivo principal proteger la privacidad de las personas usuarias y garantizar que las empresas operan con ética y responsabilidad.
TikTok toma medidas concretas para proteger a niños y niñas menores de 18 años en el Espacio Económico Europeo, Reino Unido y Suiza contra ciertos abusos, como prohibir la publicidad personalizada para este grupo demográfico. Estos datos dejan claro que la plataforma puede funcionar sin depender de estos elementos abusivos para desarrollar su negocio.
Sin embargo, este planteamiento nos lleva a hacernos preguntas importantes sobre la situación existente en los países ajenos a la UE y el EEE, radicalmente distinta.
En Argentina y otros países del Sur global, son evidentes las desigualdades en la regulación de las redes sociales. Las políticas de privacidad que utiliza TikTok son más extractivas en relación con los datos de los niños y las niñas menores de 18 años, porque la normativa o su aplicación es más débil. De este modo, se crea una brecha significativa en la protección de la privacidad, cada día más evidente, y se disparan las alertas para exigir que se actúe al respecto.
La disparidad normativa plantea cuestiones importantes acerca de la desigualdad global en la era digital. ¿Por qué unas mismas plataformas pueden operar con normas diferentes en distintas partes del mundo? ¿Por qué TikTok respeta más los derechos de los niños y las niñas en Europa que en otras partes del mundo?
Las desigualdades sociales y las relaciones de disparidad que se aprecian a escala global desde hace muchos años se recrean ahora en los entornos digitales. En una era en la que la vida de la mayoría de los niños, niñas y jóvenes se fusiona con la tecnología, es esencial exigir una protección adecuada y equitativa para todas las personas.
Proteger a los niños, niñas y jóvenes en Internet debe ser una prioridad mundial, no un privilegio limitado a regiones concretas. Las medidas de TikTok nos muestran que hay otro camino posible. La igualdad de derechos y la protección de la privacidad deben traspasar las fronteras de Europa y llegar a cualquier niño, niña o joven, dondequiera que esté.
Es una responsabilidad tanto política como empresarial que debemos exigir y defender, para garantizar que no se exponga a ningún niño, niña ni joven a relaciones de disparidad en el entorno digital.