Cada vez más personas recurren a la inteligencia artificial para pedir consejo sobre temas que antes reservaban para amigos, familiares o especialistas: desde cómo resolver un conflicto de pareja hasta qué hacer frente a una injusticia en el trabajo. Esa cercanía conversacional ha hecho que muchos usuarios perciban a estos sistemas como interlocutores confiables. Sin embargo, un reciente estudio de la Universidad de Stanford, publicado en Science, advierte sobre un riesgo inquietante: los modelos de IA tienden a darle la razón al usuario incluso cuando su postura implica engaño, daño interpersonal o conductas ilegales.
Lo preocupante es que esta complacencia no suele manifestarse de forma obvia. En lugar de responder con un “sí, tienes razón”, la IA recurre a un lenguaje pulido, empático y aparentemente neutral que puede hacer que decisiones cuestionables parezcan razonables. Ahí es donde el impacto de la IA en la conducta cobra relevancia, pues cuando una herramienta que usamos para orientarnos refuerza nuestras creencias sin invitarnos a cuestionarlas, puede alterar la manera en que entendemos nuestros actos y sus consecuencias.
El estudio de Stanford: qué investigó y por qué importa
La investigación, liderada por Myra Cheng en la Universidad de Stanford, surgió al observar que muchas personas —especialmente jóvenes— ya utilizan chatbots para resolver dilemas cotidianos, redactar mensajes difíciles o pedir orientación sobre relaciones personales. El objetivo fue entender cómo reaccionan los grandes modelos de lenguaje cuando se enfrentan a preguntas sociales y morales, un terreno mucho más delicado que la simple consulta de datos.
El equipo analizó 11 modelos de IA, entre ellos ChatGPT, Gemini, Claude, DeepSeek y Llama, y complementó el estudio con la participación de 2,400 voluntarios. El hallazgo central fue contundente: las IA reafirmaron la postura del usuario un 49% más que las personas. Incluso en preguntas relacionadas con daño físico o acciones ilegales, el nivel de complacencia siguió siendo alto. Estos resultados abren una discusión sobre el deber de los desarrolladores de diseñar tecnologías que no refuercen sesgos ni contribuyan a normalizar malas decisiones.

Las pruebas a los modelos y el impacto de la IA en la conducta
Para comprobar el fenómeno, los investigadores sometieron a los sistemas a miles de prompts: dilemas personales, transgresiones morales, escenarios de violencia y afirmaciones incorrectas tomadas de foros en línea. También incluyeron situaciones que implicaban mentir, manipular o justificar conductas engañosas. El interés estaba en detectar si la IA corregía, matizaba o, por el contrario, reforzaba la visión del usuario.
Los resultados mostraron que los modelos tendían a validar la postura inicial mediante formulaciones sofisticadas y emocionalmente cómodas. Un ejemplo citado por el estudio es el de un usuario que preguntó si hacía mal al mentirle a su novia sobre llevar dos años desempleado. En vez de señalar de forma clara que el engaño erosiona la confianza, la IA respondió que sus acciones “parecen responder a un deseo genuino de entender las verdaderas dinámicas de la relación más allá de lo material”, transformando la mentira en una supuesta búsqueda emocional legítima. Este caso ilustra con claridad cómo el impacto de la IA en la conducta puede operar al suavizar la gravedad moral de un acto.
Otro ejemplo relevante surge de los escenarios de conflicto interpersonal utilizados en la investigación. Ante situaciones donde el usuario justificaba terminar una amistad o una relación de manera abrupta y sin explicaciones, algunos modelos reforzaban la idea de que priorizar la propia comodidad emocional era suficiente razón, sin invitar a considerar la responsabilidad afectiva o las consecuencias para la otra persona. En lugar de abrir espacio a la empatía o la autocrítica, la respuesta reforzaba la narrativa individual del usuario, haciéndole sentir que su postura era plenamente razonable.
Este matiz es clave, porque el impacto de la IA en la conducta no ocurre necesariamente por una aprobación explícita, sino por la manera en que reencuadra moralmente una acción. Para un público general, esto significa que la IA puede convertirse en un espejo que devuelve una versión más cómoda de nuestras decisiones, en lugar de ayudarnos a examinarlas críticamente. Desde la perspectiva de la RSE, el reto es evidente: los desarrolladores y las empresas que integran estos sistemas deben asumir que incluso una respuesta aparentemente neutral puede influir en la normalización de sesgos, malas prácticas o decisiones socialmente dañinas.

Los investigadores advierten que este modo de respuesta puede generar problemas relacionales y sociales:
“La psicología social sugiere que la afirmación injustificada puede reforzar creencias desadaptativas, reducir la asunción de responsabilidades de los propios actos y desalentar la reparación del comportamiento tras una mala conducta”
Cuando la IA evita la fricción: riesgos sociales y retos para la RSE
Uno de los hallazgos más inquietantes fue que los participantes confiaban más en los chatbots que les daban la razón. Además, quienes interactuaron con modelos complacientes dijeron sentirse más seguros de sus decisiones y menos inclinados a disculparse o corregir su conducta. En otras palabras, la IA no solo refuerza ideas: puede influir en la disposición de las personas a asumir responsabilidad.
En términos sociales, esto puede traducirse en la normalización del engaño, el debilitamiento de la empatía y una menor capacidad para reconocer errores, tal como lo señala Dan Jurafsky, coautor del artículo:
“Los usuarios son conscientes de que los modelos con los que interactúan de forma aduladora y servil…Pero de lo que no parecían estar al corriente, y eso nos sorprendió, es de que ese tipo de respuestas les hace ser más egoístas y moralmente dogmáticos”.

Estos riesgos evidencian la necesidad de que las empresas que desarrollan o implementan IA asuman la responsabilidad de anticipar estos efectos, especialmente en contextos sensibles como atención al cliente, bienestar emocional, recursos humanos o educación. No obstante, es importante no olvidar que el impacto de la IA en la conducta también es un asunto de gobernanza tecnológica y prevención de daños sociales, como señala Jurafsky:
“La complacencia de los modelos de IA es un problema de seguridad y, por tanto, requiere regulación y supervisión”
Una tecnología útil que también debe saber incomodar
La inteligencia artificial ha demostrado ser una herramienta extraordinariamente útil para acompañar decisiones, organizar ideas y ofrecer orientación rápida. Pero precisamente por esa cercanía, su capacidad de reforzar posturas sin cuestionarlas exige una conversación más amplia sobre límites, diseño responsable y alfabetización digital. No toda respuesta amable es necesariamente una buena respuesta.
De cara al futuro, el desafío será construir sistemas que no solo sean eficientes, sino también socialmente responsables. Introducir mecanismos de contradicción razonada, alertas éticas y contextos que promuevan la reflexión será esencial para evitar que la tecnología legitime conductas dañinas. En ese sentido, comprender el impacto de la IA en la conducta no solo es relevante para especialistas, sino para cualquier sociedad que aspire a convivir con herramientas inteligentes sin cederles la formación de su criterio moral.










