En los últimos meses, las alarmas sobre el desarrollo de la inteligencia artificial no han dejado de sonar. Lejos de consolidarse como una herramienta confiable, la IA generativa ha mostrado tendencias preocupantes: desde reproducir desinformación y alucinaciones hasta responder con sesgos graves a preguntas sensibles. A pesar del enorme potencial de estos sistemas, su desempeño reciente ha comenzado a deteriorar la percepción pública y empresarial sobre su confiabilidad y utilidad real.
De acuerdo con Time, las causas de esta debacle reputacional de la IA no se limitan a errores accidentales. Experimentos como el reciente con Grok, el modelo de Elon Musk, evidencian lo sencillo que es manipular la IA para que reproduzca discursos de odio, glorifique a figuras históricas violentas o confunda la verdad. Estos fallos estructurales revelan que la IA está perdiendo confianza no solo por sus limitaciones técnicas, sino por la falta de responsabilidad y control sobre su evolución.
Cuando Grok evidenció el peor rostro de la IA
La actualización ideológica que recibió Grok, el chatbot de Musk, dejó en claro lo riesgoso que es modificar modelos de IA sin comprensión total de sus efectos. Después de ser reentrenado, Grok no solo dejó de identificar afirmaciones falsas, sino que comenzó a difundir clichés antisemitas y elogios a figuras totalitarias. Esta modificación no fue un error técnico, sino una decisión humana que alteró la orientación del modelo sin considerar las consecuencias sociales.
El caso expuso una verdad incómoda: no sabemos realmente cómo reaccionan los modelos a ciertos ajustes. La llamada “caja negra” de la IA impide entender los procesos internos que producen resultados. Al mismo tiempo, los sistemas están diseñados para replicar patrones dominantes en los datos que consumen, aunque estos sean falsos, sesgados o peligrosos.
Esta dependencia del “pensamiento colectivo” hace que los modelos repliquen desinformación con confianza absoluta, incluso cuando se enfrentan a hechos verificados. No solo se trata de reproducir opiniones; se trata de disfrazar falsedades como verdades universales, lo que implica un riesgo ético grave.
La lección de Grok debería bastar para alertar a los responsables del desarrollo de IA: sin mecanismos claros de supervisión, la inteligencia artificial puede ser usada como un arma de desinformación masiva en lugar de una herramienta de avance social y científico.
IA está perdiendo confianza en sectores clave
Según un estudio reciente de Yale, el 40 % de los directores ejecutivos expresaron preocupación por el entusiasmo desmedido en torno a la IA. Aunque reconocen su utilidad en áreas como codificación o automatización de tareas, muchos se muestran escépticos sobre su fiabilidad en el manejo de contenido informativo. Esa desconfianza no es gratuita: investigaciones muestran que la IA falla en identificar datos simples o cae fácilmente en simplificaciones erróneas.
El problema no es nuevo, pero la escala lo es. Modelos de IA responden de forma diametralmente opuesta a las mismas preguntas según la plataforma usada, lo que demuestra la falta de estandarización y control. Las alucinaciones —respuestas ficticias que parecen verosímiles— persisten como uno de los mayores desafíos, y los nuevos modelos más sofisticados alucinan aún más.
Además, la IA está perdiendo confianza porque ha dejado de priorizar los hechos por encima de la popularidad de las ideas. Al seleccionar respuestas con base en su frecuencia o consenso percibido, los modelos terminan favoreciendo la desinformación que circula ampliamente sobre verdades poco difundidas.

Esto se ve agravado por el hecho de que los resúmenes generados por IA ya están reemplazando enlaces a fuentes verificadas en los buscadores. En este escenario, la precisión queda supeditada a la conveniencia, una señal clara de que la IA no puede aún reemplazar al juicio humano informado.
El impacto global de la desinformación algorítmica
Uno de los aspectos más alarmantes es cómo actores maliciosos están explotando esta vulnerabilidad. Países como Rusia han inundado internet con artículos falsos diseñados para alimentar a los modelos de IA. En una prueba reciente, el 24 % de los modelos no detectó desinformación rusa, y algunos incluso citaron medios como Pravda como fuentes legítimas.
Esto refleja que la IA está perdiendo confianza también a nivel geopolítico. No solo reproduce los sesgos de sus desarrolladores o del pensamiento colectivo, sino que se convierte en una plataforma ideal para amplificar campañas de propaganda encubierta. La manipulación de datos con fines políticos se ve facilitada por modelos incapaces de distinguir intencionalidad o malicia.
Además, el crecimiento de sitios generados por IA —más de 1,200 identificados hasta ahora en 16 idiomas— alimenta un ecosistema donde la verdad es difícil de rastrear. Imágenes y videos falsos se difunden con rapidez, y los modelos no siempre logran distinguir su origen o intencionalidad.
La retroalimentación de información falsa dentro de estos modelos deteriora aún más su precisión. Cuanto más se entrenan con desinformación, más distorsionan sus respuestas. Este fenómeno pone en riesgo no solo el periodismo, sino la integridad de procesos educativos, políticos y sociales que dependen de fuentes fiables.

¿Hay futuro para la IA responsable?
A pesar de todo, la IA no está condenada al fracaso. Algunos ejemplos recientes muestran cómo puede complementar procesos periodísticos de investigación y análisis de datos con gran eficiencia. La clave, sin embargo, está en asumir que la IA es una herramienta, no una fuente de verdad autónoma.
El periodismo, por ejemplo, puede beneficiarse del uso ético de la IA como apoyo técnico. ProPublica ha demostrado cómo puede aprovecharse para procesar grandes volúmenes de información en poco tiempo sin sustituir el análisis humano. Pero este tipo de usos requieren control, verificación y supervisión editorial.
Lo mismo aplica a otras industrias. La creatividad, la novedad y el pensamiento crítico siguen siendo competencias humanas esenciales que la IA no puede replicar. Más preocupante aún, estudios muestran que los usuarios que no usan IA tienden a generar ideas más creativas, revelando que la herramienta puede limitar más de lo que aporta.
Por ello, es urgente que las empresas, gobiernos y organizaciones impulsen políticas de regulación, transparencia y educación en torno al uso de IA. Si no se recupera la confianza desde la base, el desarrollo tecnológico no solo se desacelerará, sino que avanzará por caminos peligrosos e incontrolables.

La confianza debe construirse con responsabilidad
La idea de una IA omnipresente y útil está en jaque. Si bien su potencial sigue vigente, los fallos recientes y la facilidad con la que puede ser manipulada muestran que aún carece de las garantías necesarias para operar con plena legitimidad. Por eso, la IA está perdiendo confianza en todos los sectores donde la precisión, la veracidad y la responsabilidad son imprescindibles.
Para revertir este declive, el sector tecnológico debe priorizar la ética, la rendición de cuentas y la transparencia. A fin de cuentas, no se trata de detener el avance de la tecnología, sino de asegurarse de que este avance no nos arrastre hacia una era de desinformación automatizada y decisiones sin fundamento.







