Durante seis meses, la emisora australiana CADA, propiedad de la Australian Radio Network (ARN), transmitió un programa conducido por una locutora de inteligencia artificial sin informar a su audiencia. El espacio, llamado Workdays with Thy, ofrecía música de géneros como hip hop, R&B y pop, y se emitía de lunes a viernes durante cuatro horas. La voz de “Thy” fue creada utilizando un software de clonación vocal desarrollado por ElevenLabs, tomando como base la voz de una empleada del área financiera de ARN.
La revelación: una IA en el micrófono
Todo comenzó a desmoronarse cuando la escritora australiana Stephanie Coombes empezó a cuestionar la autenticidad de Thy, observando inconsistencias como la falta de biografía y la repetición exacta de frases en distintos días. Un análisis de audio confirmó que la locutora no era humana.
El escándalo fue inmediato. Audiencias y profesionales del medio acusaron a la emisora de falta de transparencia, engaño y manipulación emocional. Teresa Lim, vicepresidenta de la Asociación Australiana de Actores de Voz, fue enfática: “los oyentes merecen saber si están escuchando a una persona o a una máquina”.
¿Falta de regulación o falta de ética?
Australia, como muchas otras naciones, no cuenta con una normativa específica sobre el uso de IA en radiodifusión. Esto permitió que ARN implementara este experimento sin infringir la ley. Sin embargo, la ausencia de ilegalidad no exime a la empresa de su deber ético con la sociedad.
La empresa se justificó diciendo que se trató de un experimento para explorar el potencial de la inteligencia artificial, y que las personalidades humanas siguen siendo “insustituibles” en la radio. Pero este experimento dejó al descubierto una tensión clave en la era digital: la innovación tecnológica puede colisionar con los principios fundamentales de confianza y verdad que rigen la comunicación pública.
Análisis desde la perspectiva de la responsabilidad social
Desde el marco de la ISO 26000, la guía internacional sobre responsabilidad social, este caso refleja varias carencias éticas:
- Transparencia: Uno de los principios fundamentales de la responsabilidad social según ISO 26000 es la transparencia. ARN omitió revelar un dato esencial sobre la naturaleza de su locutora, afectando el derecho de las personas a consumir contenido con información clara y veraz.
- Comportamiento ético: La guía también enfatiza el deber de actuar con integridad. Al no comunicar la intervención de IA, la emisora no respetó los estándares de conducta honesta, poniendo en riesgo su reputación y la confianza del público.
- Respeto a las partes interesadas: Las y los oyentes son actores clave del ecosistema de medios. Al no involucrarlos ni informarles sobre el experimento, la emisora ignoró sus intereses y expectativas legítimas, lo cual va en contra de las prácticas justas de operación también descritas en la norma ISO.
- Impacto en el trabajo decente y los derechos laborales: La incursión encubierta de IA en espacios tradicionalmente ocupados por personas, sin regulación ni diálogo, representa un riesgo directo a los derechos laborales, un tema que también aborda el ODS 8 sobre trabajo decente y crecimiento económico.

Además, en línea con el IWA 48:2024 sobre principios ESG, la falta de divulgación proactiva vulnera los principios de rendición de cuentas y compromiso con partes interesadas, ambos fundamentales para un gobierno corporativo responsable.
Necesitamos marcos de gobernanza ética en la tecnología
El uso de inteligencia artificial en medios de comunicación representa una oportunidad de innovación, pero también impone nuevos deberes éticos. La experiencia de ARN con “Thy” no fue simplemente una estrategia experimental, sino un caso que debe alertar al sector sobre la necesidad urgente de desarrollar marcos de gobernanza ética de la tecnología. La verdadera innovación no puede divorciarse de la responsabilidad.