Global: Existe el riesgo de que el feed “Para ti” de TikTok dirija a niños, niñas y jóvenes hacia contenidos nocivos para la salud mental

La información contenida en el presente comunicado de prensa puede resultar provocadora para algunas personas.

  • Una investigación técnica en colaboración con Algorithmic Transparency Institute y AI Forensics reveló que, tras utilizar la plataforma 5 o 6 horas, prácticamente 1 de cada 2 vídeos estaba relacionado con la salud mental y era potencialmente nocivo, cifra que multiplicaba aproximadamente por 10 el volumen presentado a cuentas sin interés por la salud mental.
  • Se produjo un efecto “espiral” aún más rápido cuando el equipo investigador visualizó de nuevo manualmente los vídeos relacionados con la salud mental sugeridos a las cuentas “sock puppet” que imitaban a personas usuarias de 13 años en Kenia, Filipinas y Estados Unidos.
  • Pasados entre 3 y 20 minutos de investigación manual, más de la mitad de los vídeos del feed “Para ti” estaban relacionados con problemas de salud mental y muchos de los vídeos recomendados en una sola hora idealizaban, normalizaban o animaban al suicidio.
  • El propio modelo de negocio de TikTok es intrínsecamente abusivo y privilegia la interacción para retener a las personas usuarias en la plataforma, con el fin de recolectar cada vez más datos sobre ellas. Las protecciones se aplican de forma desigual a las personas usuarias de distintos lugares del mundo.

El sistema de recomendación de contenidos de TikTok y sus prácticas invasivas de recolección de datos suponen un peligro para las personas jóvenes que utilizan la plataforma, puesto que amplifica contenidos depresivos y suicidas que podrían empeorar problemas de salud mental preexistentes, según muestran los dos informes complementarios que publica hoy Amnistía Internacional.

Los dos informes —Empujados a la oscuridad: El feed “Para ti” de TikTok fomenta la autolesión y la ideación suicida y “Siento que no se me protege”: Emboscada en la red de vigilancia de TikTok— ponen de relieve los abusos que sufren niños, niñas y jóvenes al usar TikTok y los modos en que el sistema de recomendación de TikTok y el modelo de negocio subyacente provocan esos abusos.

Los resultados de una investigación técnica desarrollada conjuntamente con las entidades asociadas —Algorithmic Transparency Institute (ATI), National Conference on Citizenship y AI Forensics— muestran que los niños, niñas y jóvenes que ven contenidos relacionados con la salud mental en la página “Para ti” de TikTok se ven rápidamente abocados a una espiral de contenidos potencialmente nocivos, incluidos vídeos que idealizan y fomentan el pensamiento depresivo, las autolesiones y el suicidio.

“Los resultados exponen las prácticas de diseño adictivo y manipulador de TikTok, cuyo propósito es retener a las personas usuarias para que interactúen el mayor tiempo posible. También muestran que el sistema algorítmico de recomendación de contenidos de la plataforma, al que se atribuye su rápido auge global, expone a niños, niñas y jóvenes con problemas de salud mental preexistentes a graves riesgos de sufrir daños”, ha declarado Lisa Dittmer, investigadora de Amnistía Internacional.

El sistema algorítmico de recomendación de contenidos de la plataforma, al que se atribuye su rápido auge global, expone a niños, niñas y jóvenes con problemas de salud mental preexistentes a graves riesgos de sufrir daños.

Lisa Dittmer, investigadora de Amnistía Internacional

El feed “Para ti”

En Empujados a la oscuridad: El feed “Para ti” de TikTok fomenta la autolesión y la ideación suicida se detallan los riesgos de que los intentos constantes de TikTok para captar la atención de las personas usuarias jóvenes intensifiquen problemas de salud mental como la depresión, la ansiedad y las autolesiones.

El feed “Para ti” de TikTok es una página altamente personalizada que puede desplazarse sin fin, que muestra contenidos recomendados algorítmicamente, seleccionados para reflejar lo que el sistema deduce que puede interesar a la persona usuaria.

La investigación técnica se desarrolló con más de 30 cuentas automatizadas creadas para representar a jóvenes de 13 años de Kenia y Estados Unidos a fin de medir los efectos del sistema de recomendación de TikTok sobre personas usuarias jóvenes. En una simulación adicional efectuada de forma manual se incluyeron una cuenta en Kenia, otra en Filipinas y otra en Estados Unidos.

La investigación técnica reveló que, tras utilizar la plataforma TikTok 5 o 6 horas, prácticamente 1 de cada 2 vídeos mostrados estaba relacionado con la salud mental y era potencialmente nocivo, cifra que multiplicaba aproximadamente por 10 el volumen presentado a cuentas sin interés por la salud mental.

Se produjo un efecto “espiral” aún más rápido cuando el equipo investigador visualizó de nuevo manualmente los vídeos relacionados con la salud mental sugeridos a las cuentas de investigación que imitaban a personas usuarias de 13 años en Kenia, Filipinas y Estados Unidos.

Pasados entre 3 y 20 minutos de investigación manual, más de la mitad de los vídeos del feed “Para ti” estaban relacionados con problemas de salud mental y muchos de los vídeos recomendados en una sola hora idealizaban, normalizaban o animaban al suicidio.

TikTok puede llevarle a lugares muy oscuros

El feed “Para ti” de TikTok tiene el peligro de hacer caer a las personas usuarias más jóvenes en espirales de contenido depresivo y dañino.
Hemos visto que en 20 minutos o menos, las cuentas de adolescentes que indicaron interés por contenido de salud mental mostraban sobre todo vídeos relacionados con la depresión y las autolesiones.
Díselo a TikTok
Tomen medidas urgentes de inmediato para evitar que las personas usuarias en situación de riesgo caigan en espirales de contenido nocivo.

actuar

Adictivo por diseño

Los debates de grupos-muestra, las entrevistas y las simulaciones de cuentas de TikTok de niños y niñas en Kenia, Filipinas y Estados Unidos, así como las pruebas existentes en los campos de la investigación sobre los daños de las redes sociales y la salud pública, revelan que el diseño de la plataforma de TikTok fomenta el uso malsano de la aplicación.

Cuando ves un vídeo triste con el que te identificas, de pronto toda la página “Para ti” está triste, entras en “tristok”.

Francis*, estudiante de 18 años de la provincia de Batangas, Filipinas

*Luis, universitario de 21 años de Manila diagnosticado de trastorno bipolar, relató a Amnistía Internacional su experiencia con el feed “Para ti” de TikTok.

“Es una madriguera en la que te adentras a partir de un solo vídeo. Si un vídeo logra captar tu atención, aunque no te guste, te lo presentan cuando vuelves a abrir TikTok y, como te resulta familiar, lo vuelves a ver. Al verlo de nuevo, su frecuencia en tu feed aumenta exponencialmente”, contó Luis.

*Francis, estudiante de 18 años de la provincia filipina de Batangas, observó: “Cuando ves un vídeo triste con el que te identificas, de pronto toda la página ‘Para ti’ está triste, entras en ‘tristok’. Afecta a mi estado de ánimo”.

Otro participante en el grupo-muestra explicó: “El contenido que veo —como vídeos en los que alguien está enfermo o se autodiagnostica— me lleva a pensar en exceso {aún} más. Afecta a mi mentalidad, me hace sentir que tengo los mismos síntomas y agrava mi ansiedad. Ni siquiera busco estos vídeos, sencillamente aparecen en mi feed”.

*Joyce, mujer de 21 años de Filipinas, afirmó: “La borré [la aplicación de TikTok] durante un tiempo, pero fue porque estaba muy enganchada a ella… Pasaba muchísimas horas en TikTok, simplemente navegando por los vídeos, debido a que no puedes evitar preguntarte qué saldrá a continuación al desplazar la pantalla”.

Niños, niñas y jóvenes entrevistados en Kenia declararon que consideraban que usar TikTok afectaba a sus tareas escolares y al tiempo dedicado a las relaciones sociales con sus amistades, y que provocaba que navegaran por sus feeds a altas horas de la noche en lugar de dormir lo suficiente.

Estos testimonios de niños, niñas y jóvenes fueron corroborados por especialistas en psicología de la adolescencia a quienes consultó Amnistía Internacional en el marco de la investigación.

Aunque las respuestas particulares de las personas jóvenes pueden variar, así como los factores contextuales que afectan al uso que efectúan de las redes sociales, TikTok, al igual que otras plataformas, ha determinado su diseño con la intención de maximizar el tiempo que pasan en la plataforma las personas usuarias.

“Nuestra investigación muestra que TikTok puede exponer a niños, niñas y jóvenes a graves riesgos para la salud si persiste en su actual modelo de negocio, más orientado a mantener los ojos fijos en la plataforma que a respetar el derecho a la salud de las personas usuarias”, ha declarado Lisa Dittmer, investigadora de Amnistía Internacional.

TikTok debería ser seguro por diseño, no adictivo.

La funcionalidad adictiva de TikTok, el feed “Para Ti”, una página muy personalizada por la que se deslizan inacabablemente contenidos recomendados mediante algoritmo, aprovecha lo que la Psicología ha descrito como patrón de recompensa de ganar o perder en una máquina recreativa.
TikTok está diseñado para aprovechar el deseo de recompensa de las personas usuarias, que puede llevarlas a desarrollar hábitos que fomentan el uso adictivo.
Díselo a TikTok
¡Hagan a TikTok seguro por diseño, no adictivo!

actuar

La red de vigilancia

“Siento que no se me protege”: Emboscada en la red de vigilancia de TikTok muestra cómo las prácticas de recolección de datos de TikTok, que vulneran los derechos, apuntalan estas prácticas nocivas de captación de personas usuarias y se sustentan en tales prácticas.

La investigación de Amnistía Internacional muestra que el propio modelo de negocio de TikTok es intrínsecamente abusivo y privilegia la interacción para retener a las personas usuarias en la plataforma, con el fin de recolectar cada vez más datos sobre ellas. Luego TikTok utiliza estos datos para crear perfiles de las personas usuarias y generar inferencias sobre ellas, lo que le permite segmentarlas en grupos y dirigirse a ellas mediante contenidos y anuncios altamente personalizados para conseguir que sigan interactuando. Estos grupos y categorías se ponen también a disposición de los anunciantes para que puedan ofrecer anuncios personalizados a las personas usuarias.

Aun cuando TikTok ha instaurado ciertas políticas y prácticas para garantizar un mayor respeto de los derechos de niños y niñas, éstas difieren de una región a otra, lo que deja a los niños, niñas y jóvenes de unas partes del mundo expuestos a la recolección de datos con fines de explotación en otras.

“TikTok se dirige a las personas usuarias, niños y niñas incluidos, con prácticas de recolección de datos más invasivas en aquellas partes del mundo donde tienen menos protección para sus datos en virtud de la legislación y normativa local, lo que significa que los niños y las niñas que viven en países donde la normativa es laxa, incluidos muchos de la Mayoría Global, son objeto de los peores abusos contra el derecho a la privacidad”, ha declarado Lauren Armistead, directora adjunta del programa Amnesty Tech.

“TikTok debe respetar los derechos de todas sus personas usuarias jóvenes, no sólo en Europa, y prohibir toda la publicidad segmentada que esté dirigida a menores de 18 años en todo el mundo”.

TikTok también debe dejar de hiperpersonalizar por defecto el feed “Para ti” y, en su lugar, permitir que las personas usuarias elijan de forma activa qué intereses originan la recomendación de contenidos, sobre la base de un consentimiento bien fundado y de si desean ver un feed personalizado.

Aunque Amnistía Internacional pide a TikTok que dé estos pasos urgentes hacia un modelo de negocio que respete los derechos, es necesaria también una legislación vinculante para proteger y hacer realidad los derechos de niños, niñas y jóvenes.

La mejor manera de proteger a niños y niñas del abuso de sus datos personales online es que los gobiernos prohíban por ley toda la publicidad segmentada que se base en una recolección invasiva de datos personales.

En respuesta a nuestras conclusiones, TikTok nos remitió a sus Normas de la comunidad, en las que se establece qué tipos de contenidos están prohibidos y, por tanto, en caso de que se denuncien o detecten de otro modo, se eliminan de la plataforma. En las normas, se declara que no está permitido “mostrar, promover o proporcionar instrucciones de suicidio y autolesiones, o cualquier desafío, reto, juego o pacto relacionado”, “mostrar o promover las bromas sobre el suicidio y las autolesiones” ni “compartir planes de suicidio y autolesiones”.

TikTok declaró que está en proceso de “elaborar un proceso de diligencia debida en materia de derechos humanos para toda la empresa que incluirá la realización periódica de evaluaciones de impacto en ese ámbito”. La empresa no proporcionó detalles sobre los riesgos específicos que ha identificado para los derechos humanos de niños, niñas y jóvenes. El hecho de que TikTok no cuente actualmente con un proceso de diligencia debida en materia de derechos humanos a nivel de empresa es un claro incumplimiento de la responsabilidad empresarial de respetar los derechos humanos.

TikTok gana dinero recolectando información sobre ti, como por ejemplo quién eres y lo que te gusta.
No hace excepciones cuando se trata de menores de edad.
Esta vigilancia corporativa para obtener beneficios socava el derecho de la persona menor de edad al control sobre su información personal.
Atenta contra el derecho a la privacidad y a la libertad de pensamiento.
Díselo a TikTok
Exigimos el fin de toda la publicidad segmentada dirigida a menores en todo el mundo.

actuar

Información complementaria

Ambos informes se suman a las pruebas exploradas en previos informes de investigación de Amnistía Internacional. Gigantes de la vigilancia mostró cómo el modelo empresarial de Facebook y Google es intrínsecamente incompatible con el derecho a la privacidad y representa un peligro para diversos derechos más, como la libertad de opinión y de expresión, la libertad de pensamiento y el derecho a la igualdad y a no sufrir discriminación.

En los informes de Amnistía Internacional sobre Myanmar: La atrocidad social: Meta y el derecho a un recurso para la comunidad rohinyá y Etiopía: La inacción de Meta contribuyó a la comisión de abusos contra la comunidad tigriana durante el conflicto en el norte de Etiopía se reveló que el modelo de negocio de la plataforma Facebook basado en la interacción puede tener efectos devastadores a través de la amplificación de contenidos extremos que incitan a la violencia, el odio y la discriminación, lo que en última instancia contribuye a graves violaciones de los derechos humanos y a abusos contra éstos.

Juntos, estos informes amplían la creciente base de pruebas de la campaña global de Amnistía Internacional para exigir la rendición de cuentas empresarial y la reparación de los abusos contra los derechos humanos asociados al modelo de negocio de Meta, Google, TikTok y otras plataformas “Big Tech”, basado en la vigilancia.