La inteligencia artificial (IA) avanza a pasos agigantados, pero su desarrollo no está exento de riesgos. Recientemente, OpenAI —la empresa detrás de ChatGPT— alertó sobre un creciente fenómeno: el mal uso de ChatGPT por parte de grupos con fines cuestionables, particularmente en operaciones encubiertas vinculadas con actores internacionales. Aunque estas acciones han sido de pequeña escala, el potencial para generar daño sistémico preocupa tanto a desarrolladores como a expertos en ética y responsabilidad tecnológica.
Según Forbes, el informe más reciente de OpenAI revela que se han detectado intentos deliberados de manipulación mediática y ciberataques encubiertos mediante el uso de IA generativa. Estas prácticas no solo alteran la dinámica de la información, sino que también comprometen principios esenciales de integridad, transparencia y derechos humanos. Para quienes trabajamos en responsabilidad social, este llamado de atención exige repensar el rol de la IA en las estrategias de gobernanza corporativa y en la protección de las democracias.
Riesgos crecientes del mal uso de ChatGPT en contextos geopolíticos
Uno de los hallazgos más inquietantes fue el uso de ChatGPT para crear contenido político altamente sensible. Las cuentas involucradas publicaban mensajes en redes sociales sobre temas relevantes para China, como críticas veladas a movimientos pro-Taiwán o desinformación sobre activistas internacionales. Aunque la escala fue limitada, la sofisticación del contenido plantea nuevas preguntas sobre la ética de estas herramientas.
OpenAI actuó rápidamente al cerrar las cuentas vinculadas con estas operaciones, pero la situación evidencia que el mal uso de ChatGPT no es un caso aislado. En manos equivocadas, esta tecnología puede ser usada para polarizar el debate público y manipular audiencias vulnerables, lo que representa una amenaza seria a la cohesión social y la gobernabilidad.
Desde la perspectiva de responsabilidad social, esto pone en tela de juicio la preparación de las empresas tecnológicas para prevenir externalidades negativas. Es momento de que los marcos éticos evolucionen al mismo ritmo que lo hacen las innovaciones.

Automatización maliciosa y manipulación digital
Otro hallazgo preocupante es cómo actores vinculados con China utilizaron la IA para automatizar tareas dentro de sus operaciones cibernéticas. Estas iban desde investigaciones en fuentes abiertas hasta la creación de herramientas para vulnerar sistemas de contraseñas, pasando por la manipulación de redes sociales.
Este uso estratégico de ChatGPT para mejorar capacidades ofensivas muestra cómo el mal uso de ChatGPT puede ampliar el poder de actores maliciosos, dándoles velocidad y precisión sin precedentes. La automatización, lejos de ser neutral, puede emplearse para fines profundamente éticamente cuestionables.
Para quienes lideramos esfuerzos de responsabilidad digital, esto representa un llamado a fomentar alianzas intersectoriales. Gobiernos, empresas tecnológicas y sociedad civil deben coordinarse para crear mecanismos de auditoría, prevención y mitigación.

Operaciones de influencia y polarización social
En un tercer ejemplo, OpenAI detectó una campaña de influencia que, irónicamente, apoyaba ambos lados de debates políticos en Estados Unidos, generando texto e imágenes polarizantes. Esta técnica, conocida como “dualidad informativa”, busca dividir sociedades desde dentro, dificultando la construcción de consensos.
La generación de contenido de apariencia auténtica, pero con fines de manipulación, demuestra el profundo impacto que el mal uso de ChatGPT puede tener sobre el tejido social. No se trata solo de noticias falsas, sino de estrategias sistemáticas para desestabilizar entornos democráticos.
Para los profesionales de la responsabilidad social, este fenómeno obliga a ampliar nuestra mirada. No basta con promover transparencia interna; también debemos velar por el entorno digital donde nuestras marcas, empleados y usuarios interactúan.
Vigilancia corporativa y transparencia tecnológica
A pesar de estos riesgos, OpenAI ha mostrado avances en vigilancia activa de su plataforma. Publica informes periódicos sobre actividad maliciosa y ha eliminado cuentas que violan sus políticas. No obstante, la velocidad a la que evoluciona la tecnología exige mayores niveles de responsabilidad anticipada.
El mal uso de ChatGPT no puede combatirse únicamente con bloqueos y reportes. Se requiere una ética desde el diseño, donde se contemplen posibles escenarios de abuso y se implementen salvaguardas proactivas. Esta es una deuda pendiente de muchas empresas tecnológicas.

Las organizaciones con visión de futuro ya comienzan a incorporar principios de IA responsable en sus políticas ESG. Esta práctica debe escalar para convertirse en estándar del sector, especialmente frente al poder de plataformas como ChatGPT.
Financiamiento masivo y responsabilidad ampliada
En medio de estas controversias, OpenAI ha alcanzado una valoración de 300 mil millones de dólares tras una nueva ronda de financiamiento. Esta cifra refleja la importancia económica de la IA generativa, pero también la magnitud de su impacto potencial en la sociedad.
El mal uso de ChatGPT no solo compromete la confianza del público, sino que podría derivar en regulaciones más estrictas si no se actúa con responsabilidad. Inversores, clientes y reguladores exigen cada vez más transparencia sobre cómo se previenen estos abusos.
Es imprescindible impulsar estándares éticos robustos desde las empresas y exigir a los gigantes tecnológicos que asuman su papel como guardianes del bien común.

Responsabilidad compartida frente al poder de la IA
El informe de OpenAI nos recuerda que la tecnología, sin ética, puede convertirse en una herramienta de desinformación y daño. El mal uso de ChatGPT ya no es una posibilidad hipotética, sino una realidad documentada que exige acción coordinada.
Desde la responsabilidad social, debemos elevar la conversación sobre inteligencia artificial a un plano estratégico, donde la protección de los derechos humanos, la transparencia y la rendición de cuentas sean parte del núcleo operativo.
La IA puede ser una aliada poderosa, pero solo si se diseña, implementa y regula con conciencia ética. No basta con innovar; hay que hacerlo responsablemente.