En los primeros días del conflicto en Irán, las plataformas digitales volvieron a convertirse en campo de batalla. No solo por la circulación de información estratégica, sino por la avalancha de desinformación visual: escenas espectaculares, explosiones magnificadas y ataques inexistentes que alcanzaron decenas de millones de visualizaciones en cuestión de horas. En este contexto, X ha advertido que restringirá la monetización de videos de guerra hechos con IA sin etiquetar marca un punto de inflexión relevante en la gobernanza digital de contenidos bélicos.
La medida no es menor. Con aproximadamente 500 millones de usuarios activos mensuales y un modelo que permite a creadores con cerca de 100,000 seguidores ganar cientos de dólares al mes, la plataforma había creado —quizá sin preverlo— incentivos financieros para viralizar contenidos impactantes, incluso cuando se trataba de videos de guerra hechos con IA que simulaban ataques inexistentes. Ahora, la pregunta clave es clara: ¿estamos ante una reacción coyuntural o ante el inicio de una política estructural para proteger el derecho a la información?
Monetización, incentivos y desinformación en tiempos de guerra
El anuncio de X establece que los usuarios que publiquen videos generados por IA sobre conflictos armados sin etiquetarlos perderán el acceso al programa de participación en ingresos durante 90 días; una segunda infracción implicará la expulsión permanente. La declaración de Nikita Bier fue contundente: “En tiempos de guerra, es fundamental que las personas tengan acceso a información auténtica sobre el terreno. Con las tecnologías de IA actuales, es trivial crear contenido que pueda engañar a la gente”.
La decisión responde a hechos verificables. Un video falso que mostraba cohetes iraníes persiguiendo y derribando un avión estadounidense acumuló 70 millones de visualizaciones, según BBC Verify. Otro clip reemplazó el humo real de un ataque con una bola de fuego digital desproporcionada. En Instagram y Facebook —ambas administradas por Meta— también circularon imágenes manipuladas, incluidas supuestas escenas de la destrucción de una base aérea en Riad que en realidad correspondían a un ataque ocurrido 18 meses antes en Yemen.
El problema no es únicamente tecnológico; es estructural. Cuando la viralidad se traduce en ingresos, el sistema premia lo impactante, no necesariamente lo veraz. Los videos de guerra hechos con IA se convierten entonces en una estrategia de monetización más que en un acto informativo, erosionando la frontera entre entretenimiento, propaganda y periodismo.

Videos de guerra hechos con IA y el riesgo sistémico para el derecho a la información
La organización británica Full Fact advirtió que “vemos cada vez más cómo la IA potencia la propagación de información errónea en las redes sociales”. Su editor, Steve Nowottny, subrayó que incluso imágenes de baja calidad o con marcas de agua visibles logran una difusión masiva.
Entre los ejemplos detectados se encuentran imágenes falsas de un portaaviones, del Burj Khalifa en llamas y hasta una supuesta imagen del cuerpo del ayatolá Jamenei. La repetición y el volumen de estos contenidos generan lo que en gobernanza informativa se conoce como “contaminación cognitiva”: cuando el exceso de falsedades dificulta distinguir lo auténtico.
Desde la perspectiva de derechos humanos, el impacto es directo. El derecho a la información veraz no solo es un principio ético, sino un componente esencial para la toma de decisiones individuales y colectivas, especialmente en contextos de guerra. La circulación masiva de videos de guerra hechos con IA sin etiquetar puede influir en percepciones públicas, alimentar tensiones diplomáticas e incluso escalar conflictos al reforzar narrativas falsas.

IA verificando IA: una solución aparente, un riesgo real
Un fenómeno emergente agrava el escenario. Según Sam Stockwell, investigador del Centro de Tecnología Emergente y Seguridad del Reino Unido, algunos usuarios están pidiendo a chatbots de IA que validen si ciertos contenidos son reales. El problema es que “los chatbots no son muy buenos para evaluar eventos en tiempo real”.
Esto abre una nueva brecha: usuarios que publican evaluaciones erróneas de un chatbot como prueba de autenticidad. Es decir, se instrumentaliza la IA para legitimar desinformación creada por IA. La cadena de responsabilidad se diluye y la apariencia de validación técnica confiere una falsa autoridad al contenido.
En este contexto, la política de X introduce un principio clave de debida diligencia digital: la obligación de etiquetar. No elimina los videos de guerra hechos con IA, pero establece una condición de transparencia que busca equilibrar libertad de expresión y responsabilidad informativa. Para las áreas de ESG y reputación corporativa, esta distinción es crítica: no se trata de censura, sino de gobernanza del riesgo informativo.

Transparencia obligatoria como nuevo estándar de responsabilidad digital
La decisión de X no resolverá por sí sola la propagación de desinformación, pero redefine los incentivos. Al retirar la monetización a quienes publiquen videos de guerra hechos con IA sin etiquetar, la plataforma ataca el motor económico que impulsa la viralización de contenidos falsos. En términos de responsabilidad social empresarial, se trata de una intervención sobre el diseño del sistema, no solo sobre el contenido individual.
Para las empresas tecnológicas y para quienes analizamos la sostenibilidad desde una perspectiva estratégica, la lección es clara: la gobernanza de la inteligencia artificial no puede limitarse a principios declarativos. Debe traducirse en reglas operativas, consecuencias económicas y mecanismos de transparencia verificables. En tiempos de guerra —y de alta polarización— proteger el derecho a la información no es un gesto reputacional; es un imperativo democrático y una responsabilidad sistémica.









