Verdad, Inspiración, Esperanza

El TikTok del Partido comunista chino fomenta el suicidio y vende drogas a los niños

Neil Campbell
Neil vive en Canadá y escribe sobre sociedad y política.
Published: 22 de marzo de 2023
Una foto de archivo del logotipo de TikTok en un edificio en California el 16 de marzo de 2023. Una nueva investigación que utiliza una serie de cuentas que informan que su edad es de solo 13 años descubrió que la aplicación de video de influencia social TikTok del Partido Comunista Chino está impulsando fuertemente el suicidio y contenido de venta de drogas. (Imagen: PATRICK T. FALLON/AFP vía Getty Images)

Un informe reciente de Vice criticó la aplicación TikTok – del Partido comunista chino- por fomentar el adoctrinamiento suicida y permitir cuentas que anuncian canales de Telegram que venden drogas a través de envíos internacionales a niños de 13 años.

Los informes de Vice se basan en el contenido de un informe de marzo de 2023 de Eko, descrito como un «grupo de responsabilidad corporativa».

El informe de 23 páginas establece que una cascada endémica de depresión y comportamiento suicida que afecta a los jóvenes se puede atribuir al «papel contribuyente de las plataformas de redes sociales como TikTok, Instagram y Snapchat» en lo que describe como una «crisis de salud mental».

Eko se centra en Tiktok y señala que, de sus mil millones de usuarios mensuales, se estima que un tercio tiene 13 años o menos.

El grupo descubrió que la metodología de recopilación y análisis de datos de TikTok «es muy precisa a la hora de rastrear las acciones, los deslizamientos y los movimientos de los usuarios, incluidos factores como los me gusta, los comentarios y el tiempo dedicado a ver contenidos para calibrar su algoritmo y canalizar contenidos a los usuarios a través de su página Para ti.»

Los resultados fueron similares a los de una investigación del Wall Street Journal de julio de 2021 que usó una serie de cuentas automatizadas que usaban diferentes edades y ubicaciones geográficas para descubrir que, después de solo 40 minutos de uso, TikTok comenzó a atrapar a los usuarios en una «madriguera de conejo». 

TikTok no se basó en más información que los videos que los bots pasaron y vieron para seleccionar contenido como pornografía y estar triste por las relaciones románticas para que coincida con los deseos definidos internamente de las cuentas.

Eko usó una metodología similar usando cuentas de bots para hacerse pasar por niños de 13 años y pudo descubrir «una red de contenido dañino de suicidio, incel y drogas fácilmente accesible para una cuenta de 13 años, algunos de los cuales se pueden encontrar en tan solo tres clics”.

Los hallazgos fueron alarmantes. Eko descubrió que la página For You de la aplicación «presentaba automáticamente contenido suicida altamente viral y peligroso, incluidos videos con armas cargadas y texto que sugería suicidio, junto con comentarios que enumeraban las fechas exactas de las autolesiones o el suicidio de los usuarios».

El grupo descubrió que el sistema de etiquetas se empleaba mucho para curar el contenido, y señaló que los dos más populares, #sh (autolesión) y #imdone, tenían 926 000 y 230 000 videos respectivamente que habían sido vistos más de 6 millones y 2 millones de veces.

TikTok no sólo fomentaba directamente el suicidio y la autolesión, sino que llevaba la inculcación al siguiente nivel ofreciendo una letanía de «vídeos que promueven contenidos y comentarios lúgubres y desesperanzadores en torno a la muerte, las relaciones tóxicas, el abuso sexual, la depresión y la violencia doméstica», quizá para fomentar el estado de ánimo abatido necesario para cometer el acto de quitarse la vida.

TikTok también ofrece contenido que les dice directamente a los espectadores cómo terminar con sus vidas, descubrió el grupo: «Se encontraron varios videos en TikTok que ofrecen consejos sobre el suicidio en el hogar con videos que sugieren ‘5 formas de terminarlo sin sentir ningún dolor'».

Un video, dijeron, alentó a los niños a crear una «dosis potencialmente letal de sal y agua para inducir la falla de los órganos».

Los investigadores de Eko también descubrieron que TikTok se está utilizando para traficar drogas directamente, afirmando que después de solo unas pocas horas de excavación con una cuenta que declaraba tener 13 años y el algoritmo de búsqueda básico de la aplicación, descubrieron 18 cuentas que vendían desde cocaína hasta MDMA y marihuana.

Descubrieron que las cuentas animaban a los espectadores a unirse a un canal de Telegram que vendía M30, descrito como «el nombre de la calle para imitar las píldoras de oxicodona que habitualmente contenían fentanilo».

La distribución de fentanilo en los Estados Unidos está bien establecida para estar conectada con el Departamento de Trabajo del Frente Unido del PCCh en cooperación con los cárteles mexicanos de la droga.

Los investigadores se unieron al canal de Telegram y encontraron “un menú completo de drogas ilícitas a la venta, incluidos Percocet, Xanax, LSD, cocaína, hidrocodona, marihuana y MDMA” con envío internacional disponible.

Maen Hammad, coautor del informe de Eko, le dijo a Vice en un correo electrónico: “Diez minutos y unos pocos clics en TikTok es todo lo que se necesita para caer en la madriguera del conejo de algunos de los contenidos más oscuros y dañinos en línea”.

“El algoritmo te lleva a una espiral de depresión, desesperanza y autolesiones, y es terriblemente difícil salir de esa espiral una vez que el algoritmo cree que sabe lo que quieres ver. Y es extremadamente alarmante ver lo fácil que es que los niños caigan en esta espiral”, agregó Hammad.

Las declaraciones de Hammad también fueron consistentes con lo que WSJ encontró en su investigación, en el sentido de que una vez que el algoritmo de TikTok caracterizó las cuentas por tener ciertos intereses, fue imposible deshacerse de los tipos de contenido curado en respuesta.

Vice dijo que un portavoz de TikTok afirmó en noviembre de 2022 que comenzaría a “trabajar agresivamente para combatir el comportamiento de odio mediante la eliminación proactiva de cuentas y contenido que violan nuestras políticas” después de que una investigación anterior descubrió que la aplicación fomentaba el adoctrinamiento sobre la misoginia.