La circulación de contenido sexual y perturbador en redes sociales, incluso en plataformas orientadas a menores, evidencia fallas en los sistemas de verificación de edad y reabre la discusión sobre regulación y seguridad digital.
En plena expansión del uso de redes sociales entre niñas, niños y adolescentes, las plataformas digitales enfrentan críticas por la falta de mecanismos eficaces que filtren contenidos sensibles según la edad del usuario y eviten la exposición de menores a material sexual explícito.
Un documento judicial señala que casi el 20 % de los menores de entre 13 y 15 años afirmó haber encontrado fotos o imágenes sexuales en Instagram que no quería ver. Además, cerca del 9 % reportó haber visto publicaciones relacionadas con autolesiones en esa misma red social.
Los datos surgieron en el marco de una demanda legal en Estados Unidos contra Meta, propietaria de Instagram, que investiga por qué la empresa tardó años en implementar funciones de protección para cuentas de adolescentes, como filtros que eviten la aparición de desnudos en mensajes privados.
La ausencia de métodos de verificación de edad robustos es un factor clave de esta vulnerabilidad: muchos menores mienten sobre su fecha de nacimiento al registrarse, lo que les permite acceder a contenido no apto sin restricciones. Las propias plataformas dependen en gran medida de la información que el usuario declara al crear la cuenta, un sistema fácilmente eludible.
Esta problemática no se limita a Instagram. Redes como TikTok, Facebook, WhatsApp y YouTube enfrentan problemas similares, y múltiples estudios sugieren que los menores encuentran fácil acceso a imágenes y videos sexualizados, así como a discursos perjudiciales, incluso cuando las normativas internas prohíben explícitamente estos contenidos.
Incluso plataformas diseñadas específicamente para la infancia han enfrentado cuestionamientos. En el caso de YouTube y su versión YouTube Kids, en los últimos años se detectaron videos que, bajo apariencia de dibujos animados o personajes infantiles, incluían escenas perturbadoras, mensajes violentos o insinuaciones sexuales encubiertas.

Aunque la empresa reforzó sus sistemas de moderación y eliminó miles de contenidos, especialistas advierten que los algoritmos automáticos no siempre logran filtrar materiales inapropiados a tiempo, especialmente cuando son disfrazados como entretenimiento para niños.
En Argentina, el informe “Niñas, Niños y Adolescentes conectados” de UNICEF revela que alrededor del 47 % de las y los adolescentes confesó haber visto imágenes o videos de contenido sexual en internet, y más de uno de cada cinco dijo haber recibido este tipo de material mediante redes sociales o mensajería.
LOS PELIGROS DETRÁS DEL CONTENIDO SIN FILTRO
Organizaciones de seguridad digital y autoridades alertan que la exposición temprana a contenidos sexuales puede tener efectos negativos en el desarrollo emocional y social de los menores, además de facilitar conductas de grooming, contacto con depredadores sexuales, y abuso. En Argentina y otros países, casos de grooming, sexting forzado y difusión de pornografía infantil han terminado en investigaciones judiciales y detenciones.
Frente a este panorama, algunos gobiernos han empezado a discutir marcos regulatorios. Por ejemplo, en Europa se plantean leyes que obliguen a las plataformas a verificar la edad de los usuarios antes de otorgarles acceso y a proteger más rigurosamente a los menores frente a contenidos inapropiados, aunque estas propuestas encuentran resistencia entre adolescentes y especialistas por su impacto en la privacidad y en la libre expresión.
Meta y otras empresas tecnológicas aseguran que han trabajado para mejorar la seguridad de las cuentas de adolescentes mediante herramientas que permiten a padres supervisar la actividad y limitar la exposición a ciertos contenidos, así como mediante sistemas automáticos de detección. Sin embargo, los críticos sostienen que estas medidas siguen siendo insuficientes y dependen en exceso de la autorregulación de los usuarios y de algoritmos que no distinguen eficazmente entre edades.
¿QUÉ FALTA PARA PROTEGER A NIÑOS Y ADOLESCENTES?
Expertos en derechos digitales y en infancia reclaman:
La interacción de menores con redes sociales es una realidad que no va a desaparecer. Sin estructuras de protección claras y regulaciones que obliguen a las compañías a priorizar la seguridad de los usuarios más vulnerables, la línea entre lo permitido y lo nocivo seguirá siendo difusa para quienes menos herramientas tienen para defenderse.