Durante años, la inteligencia artificial fue presentada como una herramienta neutral, capaz de impulsar la innovación, la eficiencia y el progreso social. Sin embargo, el despliegue acelerado de modelos generativos y plataformas de creación de imágenes ha revelado un ángulo mucho más oscuro: la capacidad de estas tecnologías para amplificar violencias existentes, especialmente contra mujeres y niñas, a una escala sin precedentes.
Hoy, el debate ya no gira en torno a riesgos hipotéticos. Casos recientes, como el escándalo de las imágenes sexualizadas creadas con Grok IA, muestran que la IA para dañar a las mujeres no solo es técnicamente posible, sino que se ha normalizado en comunidades digitales que utilizan estas herramientas para humillar, silenciar y violentar simbólicamente. Expertas, legisladoras y organizaciones advierten que, sin regulación y rediseño urgente, el problema apenas comienza.
Uso de la IA para dañar a las mujeres: de la innovación al abuso sistemático
La popularización de modelos generativos como Grok ha expuesto cómo ciertas plataformas permiten la creación de imágenes sexualizadas no consentidas a partir de fotografías reales. En foros como Reddit y Telegram, usuarios comparten abiertamente estrategias para eludir controles de seguridad, un fenómeno conocido como jailbreaking, con el objetivo explícito de generar contenido degradante de mujeres reales.
Investigadoras del Instituto para el Diálogo Estratégico (ISD) advierten que este no es un fenómeno marginal. Una investigación del organismo identificó decenas de aplicaciones de “nudificación” que, en conjunto, recibieron casi 21 millones de visitas en un solo mes de 2025, además de cientos de miles de menciones en redes sociales. La escala revela que la IA para dañar a las mujeres opera ya como una economía digital informal.
A diferencia de otras tecnologías abusivas, la IA reduce drásticamente las barreras de entrada. No se requieren conocimientos técnicos avanzados ni acceso a software especializado. Bastan una imagen, una instrucción y una plataforma permisiva para producir contenido que puede arruinar reputaciones, carreras y salud mental.
Este uso no es accidental. Como señala Anne Craanen, investigadora del ISD, “existe un terreno muy fértil para que la misoginia prospere”. La arquitectura de muchas plataformas prioriza el engagement y la viralidad, incluso cuando el contenido reproduce violencia de género.
Fallas de diseño y la responsabilidad de las empresas tecnológicas
Mientras algunos modelos, como Claude o Gemini, han implementado bloqueos más estrictos, otros mantienen salvaguardas débiles o inconsistentes. Esta asimetría demuestra que el problema no es técnico, sino de voluntad corporativa y prioridades de diseño.
Nina Jankowicz, cofundadora del American Sunlight Project, lo resume con claridad: “Gran parte de la infraestructura de los deepfakes de abuso sexual está financiada por empresas que todos usamos a diario”. Esto incluye aplicaciones alojadas en tiendas convencionales como Apple o Google, lo que plantea serias dudas sobre los procesos de evaluación y responsabilidad empresarial.
El argumento de que las plataformas “no pueden controlar todos los usos” resulta cada vez menos sostenible. La IA para dañar a las mujeres se apoya en decisiones concretas: permitir ciertos prompts, no auditar resultados, priorizar crecimiento sobre seguridad y externalizar el daño a las víctimas.
Desde una perspectiva de responsabilidad social, esto implica una falla grave en el deber de diligencia debida. Las empresas no solo desarrollan tecnología: moldean normas sociales, incentivos y relaciones de poder. Ignorar el impacto diferenciado sobre las mujeres equivale a reproducir desigualdades estructurales bajo una capa de innovación.
El vacío legal y la urgencia de una reforma jurídica global
Aunque algunos países comienzan a reaccionar —como el Reino Unido, que pronto tipificará penalmente la creación de imágenes íntimas no consentidas—, el marco legal sigue siendo fragmentado y reactivo. Las tecnologías avanzan más rápido que las leyes, dejando a millones de mujeres desprotegidas frente a abusos transnacionales.
Expertas en derecho advierten que el daño no es solo individual. Clare McGlynn, profesora de la Universidad de Durham, subraya que estas prácticas buscan castigar y silenciar a las mujeres, afectando su participación pública y debilitando normas democráticas. El impacto, por tanto, es social y político.
Casos como el de la diputada británica Jess Asato, quien ha sido blanco recurrente de imágenes explícitas generadas con IA, evidencian cómo esta violencia se utiliza como herramienta de intimidación. “He hablado con muchísimas víctimas de situaciones mucho peores”, señaló, dejando claro que el problema precede a cualquier plataforma específica.
Frente a este escenario, especialistas coinciden en que no basta con ajustes internos. Se requiere una reforma jurídica global que establezca estándares claros: consentimiento explícito, responsabilidad compartida, sanciones efectivas y la obligación de diseñar tecnologías que prevengan, y no faciliten, el abuso.

Regular, rediseñar y asumir responsabilidad
El auge de la IA para dañar a las mujeres demuestra que la neutralidad tecnológica es un mito peligroso. Cuando sistemas avanzados se despliegan sin perspectiva de género ni marcos éticos robustos, el resultado no es progreso, sino la amplificación de violencias históricas en formatos nuevos y más invasivos.
De cara al futuro, la discusión ya no puede limitarse a la moderación de contenidos. Es imprescindible exigir regulaciones vinculantes, un rediseño tecnológico centrado en la prevención del daño y una responsabilidad corporativa real. Proteger a las mujeres frente a estos abusos no es un freno a la innovación: es una condición mínima para que la tecnología pueda considerarse socialmente responsable.







