La Inteligencia Artificial (IA) ha abierto oportunidades en campos como la medicina, la educación y la industria, pero también ha dado pie a un fenómeno alarmante: su uso para crear Material de Abuso Sexual Infantil (MASI). Miles de imágenes generadas por IA circulan ya en la web pública, incluidas páginas accesibles mediante buscadores convencionales como Google, exponiendo a niñas, niños y adolescentes a un riesgo sin precedentes.
Organismos internacionales como la Internet Watch Foundation, Europol y la ONU han documentado que este contenido, clasificado en la “Categoría C” por su extrema gravedad, constituye un delito difícil de perseguir. Según un artículo escrito por Julia Frías, México ya es el segundo lugar mundial en generación de MASI, mientras que los especialistas afirman que la respuesta institucional es lenta e insuficiente y los activistas y expertos advierten que estamos ante nuevas formas de explotación infantil que demandan acción inmediata.
Formas de explotación infantil en la era digital
La creación de imágenes hiperrealistas mediante IA no solo representa un avance tecnológico, sino un mecanismo sofisticado de violencia sexual. Estos contenidos simulan agresiones a menores y, aunque no muestren a víctimas reales, generan daños sociales y culturales profundos. Como señala la Red por los Derechos de la Infancia en México (REDIM), la normalización de este material puede llevar a que el abuso sea tolerado en la vida real.
Olimpia Coral, pionera de la Ley Olimpia, denuncia que con la IA “estamos sistematizando la violación masiva de cuerpos”. Al convertir el abuso sexual infantil en un producto digital, se alimentan circuitos económicos ilícitos que trivializan la violencia. Estas imágenes no surgen del vacío: se entrenan con datos biométricos y fotografías reales, frecuentemente obtenidas sin consentimiento de redes sociales.

Además, la circulación abierta de MASI en la “clear web” expone a cualquier usuario, incluidos menores, a contenidos violentos y sexualizados. Organizaciones como la Internet Watch Foundation se han infiltrado en foros donde se discuten avances tecnológicos para perfeccionar estos materiales, revelando cómo la IA puede usarse para fabricar escenas cada vez más realistas y perturbadoras.
La percepción pública de la infancia se ve distorsionada: cuando las imágenes presentan a niñas y niños como objetos sexuales, se erosiona la capacidad social de reconocer y rechazar el abuso. REDIM advierte que estas prácticas perpetúan estructuras de poder que legitiman la violencia sexual, consolidando nuevas y peligrosas formas de explotación infantil.
¿Más leyes o mejor justicia? El debate en México
Legislar sobre la creación de MASI mediante IA es urgente, pero no sencillo. Diputadas como Gloria Elizabeth Núñez Sánchez y Rosa Guadalupe Ortega Tiburcio han presentado iniciativas para reformar el Código Penal Federal e incluir el uso de tecnologías digitales e IA en el delito de pornografía infantil. Sin embargo, estas propuestas enfrentan la crítica de que la ley podría quedar obsoleta rápidamente ante la velocidad del avance tecnológico.
Organizaciones como la Red en Defensa de los Derechos Digitales (R3D) sostienen que no es necesario crear nuevas leyes, sino garantizar la aplicación efectiva de las ya existentes. Según Francia Pietrasanta, Oficial Jurídica de R3D, “hoy es la Inteligencia Artificial, pero mañana tendrá otro nombre; si legislamos cada innovación, nunca alcanzaremos el paso”. Lo prioritario sería fortalecer a las fiscalías y al Poder Judicial para investigar delitos digitales sin revictimizar a las infancias.

El problema radica en que estas imágenes, aunque ficticias, se basan en datos reales: “En el origen hubo algún niño, alguna niña, alguna cara o algún cuerpo”, explica Tania Ramírez, directora de REDIM. De ahí que el delito no sea solo poseer o difundir estos contenidos, sino también producirlos usando información obtenida sin consentimiento.
Sin protocolos claros para investigar y juzgar estos casos, el sistema judicial queda rezagado. Mejorar la implementación de las leyes actuales, proteger los datos personales y exigir rendición de cuentas a las plataformas serían pasos clave para enfrentar estas nuevas formas de explotación infantil.
El caso Diego “N.”: un ejemplo de las fallas del sistema
El proceso contra Diego “N.”, estudiante del Instituto Politécnico Nacional, mostró cuán vulnerables están las víctimas cuando la tecnología avanza más rápido que el derecho. Acusado de crear y compartir imágenes explícitas de sus compañeras mediante técnicas de deep fake, inicialmente su caso fue desechado por falta de tipificación penal específica.
Aunque se hallaron 166 mil archivos en su dispositivo —incluyendo pornografía infantil de menores reales— y fue condenado a cinco años de prisión, la justicia no reflejó la magnitud del daño. Valeria Martínez, abogada de las víctimas, señaló que ni el Código Penal Federal ni el de la Ciudad de México contemplan la creación de contenido sexual con IA como un delito.
Este caso, donde había víctimas identificables, evidencia lo que podría suceder cuando el material es completamente ficticio: la dificultad de probar el delito podría ser aún mayor. Los impedimentos técnicos, la falta de protocolos y la ausencia de capacitación en fiscalías y tribunales crean un terreno fértil para la impunidad.
Si el sistema judicial no puede garantizar justicia en casos con pruebas físicas y denunciantes directos, ¿cómo podrá hacerlo frente a imágenes simuladas que representan nuevas formas de explotación infantil y no muestran a personas reales?
Un desafío internacional y la respuesta pendiente
Las compañías que desarrollan sistemas de Inteligencia Artificial tienen un papel decisivo en este fenómeno. Sin mecanismos de control interno ni políticas de prevención, estas plataformas pueden convertirse en canales para la producción y distribución de MASI. Activistas como Olimpia Coral exigen que estas empresas rindan cuentas y adopten medidas obligatorias para detectar y bloquear contenido dañino antes de que llegue a la red pública:
“La legislación tiene que llegar a las condiciones económicas y permisos de estas empresas”.
Al mismo tiempo, los gobiernos deben avanzar en marcos regulatorios nacionales e internacionales que obliguen a estas compañías a actuar con responsabilidad. La ausencia de tratados globales facilita que los delincuentes trasladen la producción y difusión de contenido ilícito a países con legislaciones débiles o inexistentes.
La UNESCO, la OCDE y la Unión Europea ya han planteado estándares éticos para la IA, pero aún no existe un consenso vinculante que sancione directamente la generación de material sexual infantil simulado. Sin este compromiso conjunto, las leyes nacionales quedan limitadas frente a un internet sin fronteras.
La urgencia es doble: empresas que asuman su rol en la protección de la niñez y gobiernos que actualicen su legislación. Solo así se podrá frenar la expansión de estas nuevas formas de explotación infantil y evitar que se consoliden como un mercado global tolerado por omisión.
Para REDIM, la respuesta debe combinar leyes, educación digital y cultura de prevención. Mejorar la educación sexual, reducir la sexualización de niñas, niños y adolescentes y proteger sus datos personales son acciones urgentes para frenar estas nuevas formas de explotación infantil antes de que se vuelvan parte de la normalidad.

Tecnología, poder y protección de la infancia
La IA ha hecho posible fabricar imágenes sexuales simuladas de menores con un realismo inquietante. Aunque estas representaciones no involucren a víctimas físicas, el daño social, cultural y simbólico es innegable. Se trata de un ataque contra la niñez como colectivo, que alimenta economías ilícitas y normaliza la violencia.
Frente a este reto, el debate no es solo legal ni moral, sino estructural. Más allá de crear nuevas figuras penales, el desafío consiste en cerrar la brecha entre la tecnología y la justicia, exigir responsabilidad a plataformas digitales, proteger los datos personales y educar a la sociedad. De lo contrario, las formas de explotación infantil que hoy emergen de la IA podrían convertirse en la violencia tolerada de mañana.







