Redes sociales bajo escrutinio: TikTok e Instagram aún recomiendan a adolescentes contenidos suicidas pese a la ley británica

Redes sociales

Redes sociales bajo escrutinio: TikTok e Instagram aún recomiendan a adolescentes contenidos suicidas pese a la ley británica

Un informe revela que los algoritmos siguen empujando a los jóvenes hacia vídeos sobre suicidio y autolesiones, a pesar de la entrada en vigor de la Ley de Seguridad Online en Reino Unido.

Los jóvenes se pueden sentir solos y aislados, a pesar de estar virtualmente más conectados que nunca. / Adobe Stock (generado con IA)
Los jóvenes se pueden sentir solos y aislados, a pesar de estar virtualmente más conectados que nunca (Foto: Adobe Stock)

La Molly Rose Foundation alerta de que los algoritmos de las plataformas más usadas por los jóvenes continúan ofreciendo contenidos nocivos, con un alcance masivo y en contra de lo que establece la legislación vigente. El regulador británico Ofcom estudia endurecer las medidas.

El debate sobre la seguridad infantil en Internet vuelve al centro de la agenda tras la publicación de un informe que denuncia cómo las principales plataformas de redes sociales continúan exponiendo a adolescentes a materiales sobre suicidio, autolesiones y depresión severa.

El estudio, realizado por la Molly Rose Foundation en colaboración con investigadores independientes, muestra que incluso tras la entrada en vigor de la Ley de Seguridad Online en Reino Unido, los algoritmos de recomendación de TikTok e Instagram mantienen una dinámica peligrosa que multiplica la exposición de los menores a este tipo de contenidos.

Los algoritmos, en el punto de mira

Los investigadores crearon cuentas falsas de una joven de 15 años y comprobaron que en TikTok, casi todos los vídeos recomendados en la página Para ti estaban relacionados con la depresión y el suicidio. En Instagram, los resultados fueron similares, especialmente en la sección Reels.

Los algoritmos nocivos siguen bombardeando a los adolescentes con niveles escandalosos de contenido dañino y esto ocurre a escala industrial

Los hallazgos ponen de relieve que los sistemas de inteligencia artificial que alimentan estas plataformas no han cambiado sustancialmente desde 2017, cuando la exposición a este tipo de material contribuyó al suicidio de la británica Molly Russell, de 14 años.

El marco legal: luces y sombras

La Ley de Seguridad Online, en vigor desde finales de julio, obliga a eliminar con rapidez cualquier contenido ilegal relacionado con suicidio o autolesiones y a proteger proactivamente a los usuarios más jóvenes. La norma contempla sanciones de hasta el 10% del volumen global de negocio de las tecnológicas que incumplan.

Sin embargo, la Molly Rose Foundation advierte que los resultados obtenidos en su investigación demuestran que la legislación aún no se aplica con la contundencia necesaria. Para la organización, la falta de control efectivo permite que los algoritmos sigan amplificando publicaciones dañinas con millones de visualizaciones.

Proporción de contenido nocivo detectado

Plataforma % de vídeos nocivos detectados % con referencias explícitas a suicidio % que ofrecían métodos concretos
TikTok 96% 52% 16%
Instagram 97% 55% 15%

Respuesta de las plataformas

TikTok rechazó los hallazgos asegurando que no reflejan la experiencia real de sus usuarios y destacó que elimina proactivamente el 99% del contenido que viola sus normas. Meta, propietaria de Instagram, subrayó que dispone de cuentas especiales para adolescentes con restricciones de acceso a contenidos sensibles, aunque no respondió directamente al informe.

Aun así, los críticos recuerdan que las propias dinámicas de monetización publicitaria de estas compañías generan incentivos para mantener y amplificar la visibilidad de los contenidos más extremos, incluso cuando estos son nocivos para la salud mental de los jóvenes.

El informe advierte que algunos de estos vídeos acumulaban más de un millón de “me gusta”, demostrando la facilidad con la que este material alcanza audiencias masivas

La presión sobre el regulador

La fundación ha solicitado a Ofcom que aplique medidas adicionales y más estrictas para evitar que los adolescentes sigan expuestos a este tipo de publicaciones. El caso reabre el debate sobre hasta qué punto los gigantes tecnológicos priorizan la seguridad frente a sus propios intereses económicos.

La muerte de Molly Russell hace ocho años marcó un punto de inflexión en la discusión sobre la responsabilidad de las plataformas digitales. Hoy, pese a los avances normativos, el informe vuelve a demostrar que el riesgo persiste y que la protección de los menores en línea sigue siendo una tarea pendiente.

El informe de la Molly Rose Foundation deja claro que, pese a la nueva regulación, la exposición de adolescentes a contenidos peligrosos continúa siendo un problema estructural. La próxima evaluación de Ofcom y la respuesta del Gobierno británico serán decisivas para determinar si la Ley de Seguridad Online logra finalmente frenar la escalada de contenidos nocivos en las redes sociales.

Más información

La 90ª edición de la Vuelta cerró este domingo con un hecho inédito. Las protestas pro-Palestina bloquearon varios puntos del recorrido final en el…
La Vuelta se presenta como un evento neutral, pero en realidad refleja las contradicciones del mundo. Mientras a Rusia se le cerraron puertas tras…
La jornada, que debía ser un desfile festivo por las calles de la capital, ha quedado eclipsada por escenas de tensión. Los corredores han…