Una investigación identificó 40 cuentas con más de 1,5 millones de seguidores que publican miles de videos de menores sexualizadas.
Una investigación en España reveló que en TikTok se multiplican perfiles que difunden videos sexualizados de niñas y adolescentes, creados con inteligencia artificial o robados de cuentas reales, y que además funcionan como puerta de entrada a material de abuso sexual infantil que luego se comercializa en otras plataformas.
El análisis, realizado por el sitio Maldita.es, identificó 40 cuentas con más de 1,5 millones de seguidores que publican miles de videos de menores sexualizadas.
De esos contenidos, se encontró que más de 5200 fueron generados con IA y otros 3600 pertenecen a menores reales, en muchos casos con la marca de agua de TikTok visible, lo que permite llegar directamente al perfil original. En los videos creados por IA se repiten escenas con uniformes escolares, bikinis o ropa ajustada, enfocadas en zonas íntimas.

Además, según el informe, estos perfiles no se limitan a la publicación de los videos: los comentarios se usan como un canal de contacto y derivación. Allí aparecen mensajes como “compro”, “cambio” o “tlg”, códigos habituales para acceder a grupos de Telegram donde se vende o intercambia material ilegal, ya sea generado con IA o perteneciente a menores reales. En varios perfiles también se encontraron enlaces directos a sitios externos que ofrecen este contenido.
Para comprobar el funcionamiento del circuito, los investigadores contactaron 14 cuentas promocionadas en Telegram. Once enviaron automáticamente un menú con los packs disponibles y siete respondieron directamente con imágenes de abuso sexual infantil sin que se les pidiera.
El comportamiento del algoritmo de TikTok también quedó en evidencia. Con una cuenta de prueba, la plataforma empezó a recomendar más videos de menores sexualizadas tras ver algunas publicaciones de ese tipo.
Las sugerencias aparecieron en Para Ti, en el buscador e incluso en recomendaciones para seguir o suscribirse a ciertos creadores. Entre las búsquedas sugeridas figuraban frases sugestivas que preferimos no publicar.
Desde el lado de la plataforma, la investigación destacó no eliminaron 14 de las 15 cuentas denunciadas. De 60 videos reportados, solo 7 fueron eliminados y 11 dejaron de aparecer en Para Ti, aunque siguieron accesibles.
Este comportamiento de TikTok, según Maldita.es, contradice las exigencias de funcionamiento de las apps, que obligan a las plataformas a detectar riesgos, moderar contenido ilegal y actuar ante denuncias.
La situación, revelada por la investigación, abre la puerta a sanciones por permitir la difusión de contenido ilegal, brindar un lugar donde se habilita la explotación infantil y que la exposición de menores, reales o generadas con IA, puede derivar en acciones legales tanto civiles como administrativas, como denuncias ante autoridades de protección de datos.
El caso vuelve a poner bajo la lupa el impacto de los algoritmos de recomendación y la capacidad real de TikTok para moderar un ecosistema que sigue creciendo entre niñas, niños y adolescentes. Mientras tanto, la comunidad exige medidas urgentes para frenar la circulación y monetización de material ilegal que, según la investigación, puede encontrarse en un par de clicks dentro de la red social.
La respuesta de Telegram
En un comunicado compartido con TN Tecno, Telegram informó que está totalmente comprometido con la prevención de la aparición de material de abuso sexual infantil (CSAM) en su plataforma y aplica una estricta política de tolerancia cero.
Según informaron, para evitar su difusión de estos materiales, Telegram analiza todos los contenidos multimedia subidos a su plataforma pública comparándolos con una base de datos de CSAM eliminados por moderadores.
Si bien ninguna plataforma cifrada puede supervisar proactivamente el contenido de grupos privados, Telegram acepta denuncias de ONG de todo el mundo para hacer cumplir sus términos de servicio.
“El hecho de que los delincuentes tengan que usar grupos privados y los algoritmos de otras plataformas para expandirse demuestra la eficacia de la moderación de Telegram. En 2025, Telegram eliminó más de 909 000 grupos y canales relacionados con CSAM”, concluyó la empresa.

