En los últimos años, el auge de los chatbots conversacionales ha transformado la manera en que las personas interactúan con la tecnología. Sin embargo, esta revolución también ha despertado preocupación sobre su impacto en los más jóvenes. Ante casos recientes de autolesiones y conductas suicidas vinculadas a interacciones con inteligencia artificial, legisladores estadounidenses han propuesto un marco legal que plantea mantener chatbots fuera del alcance infantil para proteger su bienestar emocional y psicológico.
El proyecto que según información de TIME, es conocido como Ley GUARD, fue presentado por los senadores Josh Hawley y Richard Blumenthal, con el objetivo de establecer un estándar nacional de verificación de edad para acceder a chatbots de IA. La propuesta no solo busca prevenir daños psicológicos, sino también responsabilizar a las empresas por el diseño de herramientas que puedan inducir a menores a la violencia, las autolesiones o el comportamiento sexual inapropiado.
Chatbots fuera del alcance infantil: una propuesta en debate
El proyecto de ley surge tras testimonios desgarradores de padres cuyos hijos se autolesionaron o suicidaron después de interactuar con chatbots de IA. En las audiencias del Senado, se mencionaron plataformas como OpenAI y Character.AI, donde los algoritmos habrían desarrollado vínculos emocionales con los usuarios menores. La propuesta legislativa define a los “compañeros de IA” como sistemas capaces de simular amistad o comunicación terapéutica, lo que los hace particularmente sensibles al uso infantil.
De aprobarse, las empresas deberán implementar sistemas de verificación de edad mediante identificación oficial o métodos “comercialmente razonables” que impidan el acceso de menores. Además, diseñar o permitir chatbots que inciten a conductas peligrosas podría considerarse delito penal, con multas de hasta 100 000 dólares. Este punto refuerza la necesidad de incorporar principios de ética algorítmica y diseño seguro en las estrategias corporativas de inteligencia artificial.
Organizaciones civiles como la Alianza de Jóvenes y el Instituto para Familias y Tecnología han respaldado la iniciativa, destacando que el proyecto es parte de un movimiento nacional para “poner a los chatbots fuera del alcance infantil” y promover un entorno digital responsable. Sin embargo, también han pedido ajustar la definición de “compañeros de IA” para evitar ambigüedades que puedan afectar a desarrolladores legítimos.
La dimensión de la responsabilidad social corporativa
Para las empresas tecnológicas, este debate trasciende lo jurídico: toca directamente su responsabilidad social. Los líderes del sector deben asumir que diseñar inteligencia artificial sin considerar los riesgos para menores puede tener consecuencias sociales y reputacionales graves. En la práctica, mantener los chatbots fuera del alcance infantil implica un compromiso ético con el bienestar digital y la salud mental.
Iniciativas como la Ley GUARD obligan a las compañías a repensar su gobernanza de datos y sus mecanismos de control. Desde un enfoque ESG, la “S” de social se vuelve prioritaria: los productos digitales deben ser seguros, transparentes y diseñados con propósito. En este sentido, la verificación de edad, los controles parentales y la transparencia sobre la naturaleza no humana de los chatbots son medidas de mitigación indispensables.
Asimismo, la propuesta legislativa exige que los chatbots recuerden a los usuarios que no son humanos ni proporcionan servicios médicos o psicológicos. Este punto, aparentemente técnico, tiene un profundo valor ético: evita que los usuarios —especialmente los menores— confundan una relación artificial con un acompañamiento emocional genuino.

Regulación y prevención: un modelo que se expande
La Ley GUARD no es un caso aislado. A principios de mes, California aprobó la ley SB243, que también exige a las empresas de IA adoptar protocolos para detectar ideación suicida y prevenir daños. Esta tendencia refleja una mayor conciencia pública sobre el papel de la IA en la salud mental, y la necesidad de una supervisión activa. Los especialistas en RSE coinciden: la prevención debe ser parte del diseño tecnológico, no una respuesta tardía ante la tragedia.
OpenAI y Meta han tomado medidas iniciales en esa dirección. OpenAI anunció un “sistema de predicción de edad” para redirigir a adolescentes a versiones seguras de ChatGPT, con filtros para evitar conversaciones coquetas o sobre autolesiones. Meta, por su parte, ha implementado controles parentales en sus modelos de IA. Sin embargo, los críticos señalan que estas acciones, aunque positivas, siguen siendo insuficientes para garantizar que los chatbots no representen un riesgo residual.
El debate también plantea un desafío para la industria: equilibrar la innovación con la protección de grupos vulnerables. Si bien la IA puede ofrecer beneficios educativos o terapéuticos, su mal diseño o uso inadecuado puede amplificar daños. La autorregulación corporativa, aunque necesaria, parece no bastar; por eso, la legislación podría ser la vía para establecer mínimos éticos universales.

Hacia una IA ética y segura para todos
La discusión sobre mantener chatbots fuera del alcance infantil no trata solo de acceso, sino de responsabilidad. La tecnología no puede sustituir el acompañamiento humano, y los desarrolladores deben garantizar que sus herramientas no vulneren la integridad emocional de los menores. Para las empresas comprometidas con la sostenibilidad social, esto implica invertir en diseño ético, monitoreo constante y educación digital para familias y escuelas.
En un contexto donde la inteligencia artificial se integra cada vez más en la vida cotidiana, el equilibrio entre libertad tecnológica y protección infantil será uno de los mayores retos éticos de esta década. Más que un veto, la nueva ley plantea una reflexión profunda sobre los límites de la innovación: proteger a la infancia digital es, en última instancia, una extensión del principio básico de responsabilidad social que toda empresa debería asumir.







