La promesa de la inteligencia artificial multilingüe ha seducido a empresas, gobiernos y usuarios con una narrativa poderosa: si una IA puede responder con fluidez en cualquier idioma, entonces también comprende el contexto social de quien pregunta. Sin embargo, una anécdota ocurrida en Indonesia revela la fragilidad de esa premisa. Lo que ocurrió es que un hombre realizó una consulta a ChatGPT sobre cómo resolver una disputa familiar, pero su respuesta le hizo notar que, pese a contestar con un indonesio perfecto, la respuesta no cuadraba ya que se basaba en presupuestos culturales estadounidenses y no en el contexto cultural de quien hizo la pregunta desde otro lado del mundo.
Tras notarlo, se lo contó a su amigo, quien resultó ser un investigador que más tarde efectuó todo un análisis sobre el sesgo cultural en la IA y que ahora ha dado origen a un artículo publicado en la Revista Internacional de Sociología Moderna, donde se documenta un patrón de enorme relevancia ética: los grandes modelos lingüísticos dominan idiomas locales, pero continúan razonando desde marcos epistemológicos occidentales.
El hallazgo, definido como persistencia epistemológica, obliga a revisar una creencia ampliamente extendida en el ecosistema tecnológico: la fluidez lingüística no equivale a comprensión cultural.

Sesgo cultural en la IA: lo que descubrió la investigación bajo la fluidez multilingüe
Los datos duros detrás del estudio son contundentes. El modelo LLaMA 2 de Meta fue entrenado con aproximadamente 89.7 % de texto en inglés, mientras que LLaMA 3 apenas incorpora alrededor de 5 % de datos en otros idiomas. En paralelo, el árabe —quinto idioma más hablado del planeta— representa menos del 1 % de los grandes datasets de entrenamiento, mientras lenguas con decenas de millones de hablantes, como bengalí o hausa, son prácticamente marginales. Esta asimetría no solo limita representación lingüística: moldea qué valores, nociones de responsabilidad y criterios de “buen resultado” se convierten en norma algorítmica.
El estudio añade un hallazgo especialmente inquietante: investigadores de la University of Oxford identificaron que muchos LLM realizan su razonamiento interno en inglés incluso cuando reciben prompts en otros idiomas. Es decir, el idioma local funciona como interfaz de salida, no como estructura de pensamiento. Bajo esa lógica, conceptos profundamente situados en países como Indonesia, como gotong royong (ayuda mutua comunitaria) o malu (conciencia relacional y regulación social), terminan traducidos a equivalentes psicológicos occidentales como “vergüenza”, perdiendo su dimensión colectiva. Aquí el sesgo cultural en la IA no es anecdótico: es estructural, reproducible y medible.

Cuando la IA ignora cosmovisiones: por qué este problema importa más de lo que parece
La relevancia del fenómeno excede la semántica. Cuando la IA privilegia la fluidez idiomática pero no integra cosmovisiones locales, introduce marcos normativos invisibles en decisiones íntimas, educativas, organizacionales, etc. En los experimentos realizados durante el estudio tambipen se preguntó a la IA sobre la educación empleando la palabra pendidikan (educación) en indonesio. Las respuestas de modelos de IA como ChatGPT, Claude y Gemini priorizaron autonomía personal, pensamiento crítico individual y preparación para el mercado laboral. No obstante, desaparecieron dimensiones históricas de la tradición educativa indonesia: disciplina ética, deber comunitario y formación moral relacional. Lo que se erosiona no es solo un matiz cultural, sino una arquitectura de sentido.
Estos resultados evidencian que el sesgo cultural en la IA puede naturalizar formas de individualismo que debilitan la cohesión social, invisibilizan saberes comunitarios y desplazan valores colectivos. A diferencia de los medios tradicionales, donde el origen cultural del mensaje suele ser reconocible, la IA conversacional opera bajo una apariencia de neutralidad empática. Su tono cercano y personalizado dificulta detectar que ciertas recomendaciones responden a una filosofía moral localizada, no universal. El riesgo reputacional, social y humano para las empresas que despliegan estas herramientas en salud, educación, atención a clientes o bienestar laboral es enorme.

Un cambio poco probable a corto plazo: responsabilidad social de las empresas de IA
No parece que esta situación vaya a modificarse pronto, y la razón es menos técnica que económica. Traducir la salida de modelos entrenados principalmente en inglés es mucho más barato que construir arquitecturas genuinamente multiculturales desde origen. La lógica del mercado favorece escalabilidad, velocidad y captura global, no pluralidad epistemológica. Como ha advertido la investigadora Safiya Umoja Noble, lo que solemos llamar “limitación técnica” suele ser en realidad el resultado de decisiones estructurales sobre infraestructura, propiedad y rentabilidad. El sesgo cultural en la IA emerge así como un subproducto de modelos de negocio, no como una falla accidental.
Desde la óptica de la RSE, esto coloca a las empresas creadoras de IA frente a una responsabilidad histórica. No basta con ampliar idiomas; deben diseñar sistemas que incorporen pluralidad de marcos morales, tradiciones relacionales y nociones no occidentales de bienestar, conflicto y comunidad. El desafío es profundamente social: si estos sistemas continúan exportando individualismos que erosionan vínculos colectivos, podrían reforzar dinámicas de fragmentación social, deslegitimación cultural y homogeneización cognitiva a escala global. La responsabilidad corporativa ya no reside solo en evitar daño, sino en asumir que diseñar IA es también diseñar cultura, ciudadanía y futuro social.











