Este enero de 2026, Grok AI —el sistema de generación de imágenes de xAI, empresa de Elon Musk— se ha convertido en el centro de una polémica global tras revelarse que produjo alrededor de 3 millones de imágenes sexualizadas en menos de dos semanas, muchas de ellas sin consentimiento de las personas retratadas.
El caso va mucho más allá de una falla puntual de moderación o del error de una sola plataforma. La facilidad con la que usuarios pudieron crear, difundir y monetizar contenido sexualizado —incluidas miles de imágenes que aparentan representar a menores— evidencia un problema estructural: la ausencia de salvaguardas mínimas y un vacío legal que deja a la tecnología avanzando más rápido que la regulación y la rendición de cuentas.
Imágenes sexualizadas en Grok: una producción a escala industrial
De acuerdo con una investigación del Centro para la Lucha contra el Odio Digital (CCDH), Grok AI generó cerca de 3 millones de imágenes sexualizadas entre el 29 de diciembre de 2025 y el 8 de enero de 2026. Dentro de ese volumen, los investigadores estimaron que 23.000 imágenes parecían representar a niños, lo que llevó al CCDH a calificar el sistema como “una máquina a escala industrial para la producción de material de abuso sexual”.
El análisis se apoyó en datos de Peryton Intelligence, que identificó un pico de 199.612 solicitudes individuales en un solo día, el 2 de enero. Durante ese periodo, Grok habría contribuido a la creación de imágenes sexualizadas de menores cada 41 segundos, una cifra que ilustra la magnitud y velocidad del problema.

Entre las víctimas de este uso se encontraron figuras públicas como Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande, Nicki Minaj y Millie Bobby Brown, así como políticas como Kamala Harris y Ebba Busch. Las imágenes eran creadas a partir de fotografías reales, modificadas para mostrar a las personas en ropa interior, bikinis o poses sexualizadas.
El fenómeno se volvió viral en X, plataforma donde se difundían estas imágenes, lo que amplificó el daño reputacional, psicológico y social para las personas afectadas, muchas de ellas sin posibilidad real de defenderse o retirar el contenido de forma inmediata.
Reacciones tardías y presión internacional
La indignación pública creció rápidamente. El primer ministro del Reino Unido, Keir Starmer, calificó el uso de Grok como “repugnante” y “vergonzoso”, mientras que países como Indonesia y Malasia optaron por bloquear la herramienta de inteligencia artificial. Estas reacciones reflejan una creciente preocupación estatal ante la incapacidad de las plataformas para autorregularse eficazmente.
X restringió el acceso a la función de generación de imágenes a usuarios de pago el 9 de enero y, finalmente, el 14 de enero anunció la suspensión total de la función que permitía editar fotografías de personas reales para mostrarlas con ropa reveladora. Sin embargo, para entonces, millones de imágenes ya circulaban en línea.
Imran Ahmed, director ejecutivo del CCDH, fue contundente:
“Desnudar a una mujer sin su permiso es abuso sexual. Durante ese período, Grok se convirtió en una máquina industrial para la producción de material de abuso sexual”.
Ahmed añadió que el escándalo generó “atención, participación y usuarios”, lo que expone incentivos perversos en el modelo de negocio de estas plataformas. La respuesta corporativa, aunque necesaria, fue reactiva. El daño ya estaba hecho y la retirada de la función no garantiza que situaciones similares no se repitan con otras herramientas de IA generativa.
Un vacío legal que expone a personas y derechos
El caso de las imágenes sexualizadas en Grok pone en evidencia un vacío regulatorio significativo. Aunque muchas jurisdicciones cuentan con leyes contra la explotación sexual infantil o la difusión de imágenes íntimas sin consentimiento, estas normativas no siempre contemplan la escala, velocidad y complejidad de la IA generativa.
Ahmed subrayó que el problema no es exclusivo de Musk o de Grok:
“Se trata de un sistema con incentivos desalineados y sin las garantías mínimas prescritas por la ley”.
Mientras las plataformas se benefician del crecimiento y la viralidad, los marcos legales siguen siendo fragmentados y, en muchos casos, obsoletos. Este vacío deja a las víctimas con recursos limitados y a los desarrolladores con amplios márgenes de maniobra. La autorregulación, como demuestra este caso, resulta insuficiente cuando no existen obligaciones claras de diseño seguro, evaluación de riesgos y prevención de daños desde el inicio.
Además, la ausencia de estándares globales facilita que herramientas prohibidas en un país sigan operando en otros, trasladando el problema en lugar de resolverlo.
Más allá de Grok: responsabilidad compartida en la IA
Reducir el debate a Grok AI sería un error. La proliferación de modelos capaces de generar imágenes hiperrealistas implica que el riesgo de abuso se replica en todo el ecosistema tecnológico. Sin reglas claras, cualquier herramienta similar puede convertirse en un vehículo para la violencia digital, la explotación y la vulneración de derechos humanos.
X afirmó en un comunicado que mantiene “tolerancia cero hacia cualquier forma de explotación sexual infantil, desnudez no consentida y contenido sexual no deseado”, y que colabora con las autoridades cuando es necesario. Sin embargo, estas medidas llegan después del daño, no antes.
El desafío central es establecer expectativas mínimas de seguridad aplicables a todas las plataformas de IA: controles técnicos obligatorios, auditorías independientes, sanciones proporcionales y mecanismos eficaces de reparación para las víctimas.
Mientras esto no ocurra, la generación masiva de contenido dañino seguirá siendo una consecuencia previsible de sistemas diseñados sin salvaguardas suficientes.

Una advertencia que no puede ignorarse
El escándalo de Grok AI no es un episodio aislado, sino una advertencia sobre los riesgos de dejar la innovación tecnológica sin límites claros. Las imágenes sexualizadas en Grok revelan cómo la combinación de IA generativa, incentivos económicos y falta de regulación puede traducirse en daños reales y sistemáticos para miles de personas.
La solución no pasa únicamente por apagar una función o ajustar un algoritmo. Requiere una respuesta estructural que involucre a gobiernos, empresas y sociedad civil para cerrar el vacío legal y establecer responsabilidades claras. Sin este esfuerzo colectivo, la tecnología seguirá avanzando más rápido que la protección de los derechos humanos, con consecuencias cada vez más graves.








