En marzo de 2025, un documento judicial revelado en una demanda federal en California encendió una nueva alerta sobre la experiencia digital de los adolescentes en Instagram. Según una declaración jurada de Adam Mosseri, casi uno de cada cinco usuarios de entre 13 y 15 años dijo haber visto “imágenes de desnudos o de contenido sexual” que no quería ver en la plataforma. La cifra no proviene de un monitoreo interno de publicaciones, sino de una encuesta aplicada a usuarios.
De acuerdo con Forbes, el dato, en apariencia técnico, abre una conversación mucho más amplia: ¿qué significa para la responsabilidad corporativa que un 19% de adolescentes en Instagram reporte exposición no deseada a contenido sexual? En un contexto donde Meta enfrenta miles de demandas en Estados Unidos por presuntos daños a la salud mental de menores, la discusión ya no es solo tecnológica, sino ética, regulatoria y social.
Adolescentes en Instagram: lo que dicen las encuestas internas
La estadística que hoy circula no surge de una auditoría independiente ni de un análisis automatizado de contenidos. De acuerdo con el portavoz de Meta, Andy Stone, el dato proviene de una encuesta sobre experiencias de usuarios y no de una revisión directa de publicaciones o mensajes. Es decir, la evidencia parte de la percepción declarada por los propios adolescentes en Instagram.
En el documento judicial revisado por Reuters, Mosseri señala además que la empresa no suele compartir estos resultados “en general” y que las encuestas son “notoriamente problemáticas”. Sin embargo, en materia de derechos digitales y protección de la infancia, incluso los datos imperfectos son señales que las organizaciones no pueden ignorar.
Para quienes trabajan en responsabilidad social, esta distinción metodológica es clave: medir experiencias no equivale a monitorear contenidos, pero sí revela impactos. Y cuando se trata de menores, la percepción también configura riesgo.

Mensajes privados y adolescentes en Instagram: el dilema de la privacidad
Uno de los puntos más sensibles es que, según la declaración, la mayoría de las imágenes sexualmente explícitas se enviaron a través de mensajes privados entre usuarios. Esto coloca a Meta ante un dilema complejo: proteger a los menores sin vulnerar la privacidad de las conversaciones.
“Mucha gente no quiere que leamos sus mensajes”, afirmó Mosseri. La frase sintetiza una tensión estructural del entorno digital. Las plataformas deben equilibrar la moderación con la confidencialidad, pero cuando hablamos de adolescentes en Instagram, el margen de tolerancia social es cada vez menor.
Desde la óptica de la gobernanza corporativa, el desafío no es solo técnico. Implica rediseñar procesos, fortalecer sistemas de reporte y educar a usuarios y familias, sin caer en prácticas invasivas que erosionen la confianza.
Más allá del contenido sexual: señales de alerta adicionales
El documento judicial también señala que alrededor del 8% de los usuarios de entre 13 y 15 años afirmó haber visto a alguien hacerse daño o amenazar con hacerlo en la plataforma. Esta cifra amplía la conversación hacia la salud mental y la exposición a contenidos sensibles.
Cuando los adolescentes en Instagram reportan este tipo de experiencias, el debate se desplaza del control de imágenes explícitas hacia la arquitectura misma de la interacción digital. ¿Qué incentivos priorizan los algoritmos? ¿Cómo se gestionan las denuncias? ¿Qué tan accesibles son los mecanismos de apoyo?

En un entorno donde miles de demandas en tribunales federales y estatales en Estados Unidos acusan a la compañía de diseñar servicios adictivos, la acumulación de indicadores negativos refuerza la presión sobre la empresa.
Respuesta corporativa: nuevas reglas para contenidos explícitos
A finales de 2025, Meta anunció que eliminaría imágenes y videos que contuvieran desnudos o actividades sexuales explícitas, incluso cuando fueran generados por inteligencia artificial. Solo se contemplarían excepciones para contenidos médicos y educativos. Este anuncio representa un ajuste relevante en la política de moderación, especialmente frente al auge del contenido sintético. Sin embargo, la pregunta persiste: ¿es suficiente reaccionar cuando el problema ya está documentado en tribunales?
En el campo de la responsabilidad social empresarial, la diferencia entre cumplimiento normativo y liderazgo ético suele medirse en la anticipación. Las plataformas digitales, por su escala e influencia, enfrentan estándares cada vez más altos.

Reputación, litigios y rendición de cuentas
Meta se enfrenta a acusaciones de líderes mundiales que sostienen que sus productos pueden perjudicar a usuarios jóvenes. En Estados Unidos, las demandas alegan que la empresa contribuyó a una crisis de salud mental entre menores. En este contexto, el dato sobre el 19% adquiere un peso reputacional significativo. No es solo una cifra estadística; es un insumo en procesos judiciales, en debates legislativos y en la narrativa pública sobre seguridad digital.
Para las empresas globales, la transparencia se ha convertido en un activo estratégico. Negar, minimizar o relativizar hallazgos puede tener costos mayores que reconocerlos y actuar con contundencia. El fenómeno no puede analizarse únicamente desde la plataforma. Familias, escuelas, gobiernos y organizaciones civiles también forman parte del ecosistema que rodea a los adolescentes en Instagram.
La corresponsabilidad implica alfabetización digital temprana, protocolos claros de denuncia y acompañamiento psicológico cuando sea necesario. Pero también demanda que las compañías integren la protección de la infancia en el centro de su modelo de negocio, no como un apéndice reputacional. En un entorno digital cada vez más complejo, la prevención requiere colaboración multisectorial y métricas claras que permitan evaluar avances reales.
La revelación de que el 19% de usuarios de 13 a 15 años reportó haber visto imágenes sexuales no deseadas en Instagram no es un dato aislado. Es parte de una conversación global sobre cómo proteger a los menores en plataformas diseñadas para maximizar interacción y crecimiento.
El caso ofrece una lección clara: la tecnología no es neutral. Las decisiones de diseño, moderación y transparencia tienen consecuencias concretas. La pregunta ya no es si las plataformas deben actuar, sino qué tan rápido y con qué profundidad están dispuestas a transformar su modelo para garantizar entornos digitales verdaderamente seguros.










