Verdad, Inspiración, Esperanza

Estudio revela que Instagram es la principal plataforma para redes de abuso sexual infantil

Neil Campbell
Neil vive en Canadá y escribe sobre sociedad y política.
Published: 9 de junio de 2023
Foto de archivo de unas niñas posando con un influencer de Instagram disfrazado en torno a la guerra de Ucrania, en Kiev, el 24 de mayo. Un estudio publicado recientemente por el Observatorio de Internet de la Universidad de Stanford concluye que Instagram está sirviendo como centro de promoción de un mercado de abuso sexual infantil autogenerado en el que menores de tan solo 6 años parecen vender fotos, vídeos, contenido de autolesiones e incluso prostitución en directo a cambio de tarjetas regalo. (Imagen: SERGEI SUPINSKY/AFP vía Getty Images)

Un nuevo estudio publicado por el Observatorio de Internet de la Universidad de Stanford (SIO) descubrió que Instagram está sirviendo como el centro principal para un mercado de contenido de abuso sexual infantil autogenerado.

Publicado el 6 de junio en el sitio web de Stanford, el estudio es único en el sentido de que se centra específicamente en la cuestión del material de abuso sexual de menores autogenerado, tres investigadores explicaron que se distingue en que «una imagen o vídeo parece haber sido creado por el sujeto menor de edad que aparece en la imagen», en contraposición a ser creado por un groomer, manipulador o abusador adulto.

«En los últimos años, la creación y distribución… se ha convertido cada vez más en una empresa comercial», afirma la sección Antecedentes, señalando que los hábitos de los vendedores «a menudo reproducen el patrón de la producción legítima independiente de contenidos para adultos», como los que se encuentran en las plataformas de pornografía que se han generalizado en los últimos años.

MÁS SOBRE LA CORRUPCIÓN DE LAS REDES SOCIALES

En particular, la SIO descubrió que los autocreadores de pornografía de menores no sólo ofrecen fotografías y vídeos de sí mismos, sino que a menudo anuncian «servicios más peligrosos, como encuentros sexuales en persona o medios de autolesión corporal».

A diferencia de aceptar dinero en efectivo directamente, estos vendedores confían principalmente en un popular mercado de tarjetas de regalo y productos en línea para cobrar el pago en especie, determinó el SIO después de descubrir que varias cuentas que exhibían el comportamiento y las características probables de los compradores compartían nombres de usuario idénticos en el mercado.

Aunque el primer concepto que viene a la mente del tema del material de abuso sexual infantil es la forma más atroz que involucra a niños pequeños, Stanford señala que con el mercado autogenerado, “Basado en las biografías, la mayoría se identifica a sí mismo entre las edades de 13 y 17”. 

Sin embargo, el SIO señaló que «es habitual que ofrezcan contenidos de ellos mismos desde edades aún más tempranas, que se promocionan con un mayor coste».

Sin embargo, una captura de pantalla incluida en el estudio de Twitter identificó a una niña de seis años, aparentemente una mujer, y afirmó que buscaba reunirse en persona con «depósito y condones requeridos».

Los investigadores también descubrieron que los perfiles de Instagram y Twitter descubiertos en su red de arrastre a menudo se vinculaban a salas de chat en la plataforma Discord y Telegram que «tenían cientos o miles de usuarios».

Si bien algunos de estos lugares parecían estar administrados por el vendedor, otros eran «grupos de vendedores múltiples (que a veces parecen redistribuir contenido de terceros)».

Las técnicas del estudio utilizaron un sistema automatizado para recopilar datos de Twitter a través de su API de nivel comercial y búsquedas manuales de hashtags obvios en Instagram, donde los resultados se procesaron a través de una serie de herramientas, como PhotoDNA y la API SafeSearch de Google, que permiten la identificación algorítmica o mediante inteligencia artificial de violencia y desnudos o material conocido de abuso sexual infantil.

Los datos marcados se enviaron al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), que el estudio define como “la cámara de compensación legalmente designada para informes de abuso sexual infantil”.

En un barrido original, Stanford encontró 405 vendedores de contenido autogenerado en Instagram y 128 en Twitter.

Un artículo del 7 de junio de The Wall Street Journal sobre los hallazgos del SIO aclaró que 112 de las 405 cuentas de Instagram marcadas «colectivamente tenían 22.000 seguidores únicos».

Se dijo que los empleados actuales y anteriores no identificados de Meta que «trabajaron en iniciativas de seguridad infantil de Instagram» «estiman que la cantidad de cuentas que existen principalmente para seguir dicho contenido es de cientos de miles, si no millones».

Los investigadores de SIO señalaron que en Instagram, 58 cuentas que componen la red de seguidores de los vendedores «parecían ser posibles compradores de contenido que usaban sus nombres reales, muchos de los cuales coincidían con los perfiles de Facebook, LinkedIn o TikTok».

Después de enviar contenido al NCMEC y revisar las cuentas un mes después, Stanford descubrió que solo 31 de las cuentas de vendedor y 28 de las cuentas de comprador seguían activas en Instagram.

Solo 22 de los 128 originales seguían activos en Twitter.

“Sin embargo, en el tiempo intermedio, se crearon, recrearon o activaron cientos de nuevas… cuentas en ambas plataformas, vinculadas a la red como lo indica el gráfico de seguidores, hashtags y contenido de publicaciones/biografías”, lamentó el estudio informar a los lectores.

Uno de los investigadores es el jefe de SIO, Alex Stamos, quien casualmente también trabajó como director de seguridad de Facebook (que pasó a llamarse Meta en 2021), la empresa matriz de Instagram.

Stamos le dijo a The Wall Street Journal sobre los hallazgos de su grupo: «Que un equipo de tres académicos con acceso limitado pudiera encontrar una red tan grande debería activar las alarmas en Meta».

“Espero que la empresa reinvierta en investigadores humanos”, agregó Stamos, y señaló que las herramientas internas de Meta son mucho más efectivas para encontrar el contenido que su equipo pudo descubrir desde el exterior.

WSJ señaló que solo después de consultar con Meta sobre su historia, la plataforma “ha bloqueado miles de hashtags que sexualizan a los niños, algunos con millones de publicaciones, y restringió sus sistemas para recomendar a los usuarios que busquen términos que se sabe que están asociados con el abuso sexual”.

El artículo del Journal profundiza más en el tema, conectando con investigadores del Rescue Lab de la Universidad de Massachusetts, que utilizaron un método de cuentas de prueba similar al de una exposición de julio de 2021 sobre la propensión de TikTok a «enredar» algorítmicamente a los nuevos usuarios en un feed de promoción del suicidio y abuso de drogas para examinar los efectos del algoritmo de Instagram en la red de pornografía infantil.

El Rescue Lab descubrió que una vez que una cuenta de prueba veía una cuenta de la red descubierta de SIO, recibía «inmediatamente recomendaciones ‘sugeridas para ti’ de supuestos vendedores y compradores de contenido sexual infantil, así como cuentas que enlazaban con sitios de comercio de contenidos fuera de la plataforma».

“Seguir solo un puñado de estas recomendaciones fue suficiente para inundar una cuenta de prueba con contenido que sexualiza a los niños”, agregó WSJ.

En una exposición de septiembre de 2021, el WSJ obtuvo copias de documentos internos de Facebook e Instagram con fecha de 2020 y encontró que la compañía entendió a partir de su propia investigación que su plataforma estaba perjudicando a las adolescentes.

“El treinta y dos por ciento de las adolescentes dijeron que cuando se sentían mal con sus cuerpos, Instagram las hacía sentir peor”, decía una diapositiva, que agregaba: “Las comparaciones en Instagram pueden cambiar la forma en que las mujeres jóvenes se ven y se describen a sí mismas”.

En total, los científicos de la empresa realizaron 5 estudios durante 18 meses y descubrieron que el escenario era exclusivo de Instagram y no de otras plataformas de redes sociales, y finalmente presentaron sus hallazgos a Mark Zuckerberg.

El director de Rescue Lab, Brian Levine, le dijo a WSJ para la historia del 7 de junio que Instagram es una «rampa de acceso» a lugares en línea donde «hay abuso sexual infantil más explícito».

La tendencia parece estar acelerándose rápidamente. El NCMEC fue citado diciendo al Journal: “En 2022, el centro recibió 31,9 millones de informes de pornografía infantil, en su mayoría de empresas de Internet, un 47% más que dos años antes”.

“Meta representó el 85% de los informes de pornografía infantil presentados al centro, incluidos unos 5 millones de Instagram”, agregó WSH.