- Advertisement -
NoticiasRSEOpenAI enfrenta demanda: aseguran que ChatGPT pudo advertir sobre joven que planeaba...

OpenAI enfrenta demanda: aseguran que ChatGPT pudo advertir sobre joven que planeaba asesinatos

Banner Economía Circular Banner Economía Circular

La inteligencia artificial se ha convertido en una herramienta capaz de responder preguntas, generar contenido y acompañar decisiones cotidianas. Sin embargo, su creciente presencia también ha abierto interrogantes profundas sobre su capacidad para detectar riesgos y prevenir situaciones de violencia antes de que ocurran. Cuando una tragedia sucede, esas preguntas dejan de ser teóricas y se convierten en una exigencia social.

Según The Guardian, el caso comenzó tras un tiroteo masivo ocurrido el 10 de febrero en la comunidad de Tumbler Ridge, en la Columbia Británica, donde ocho personas murieron, entre ellas cinco estudiantes de entre 12 y 13 años. Ahora, una familia afectada ha iniciado una batalla legal que coloca en el centro del debate la responsabilidad corporativa de las empresas tecnológicas. La historia detrás de esta tragedia explica por qué OpenAI enfrenta demanda y por qué el caso podría marcar un precedente global.

Una tragedia que conmocionó a una pequeña comunidad

Tumbler Ridge es una ciudad montañosa remota del oeste canadiense, conocida por su tranquilidad. Sin embargo, el 10 de febrero esa calma se rompió cuando un joven de 18 años abrió fuego dentro de una escuela, dejando ocho personas muertas y varios heridos antes de quitarse la vida.

Entre las víctimas se encontraba Maya Gebala, una niña de 12 años que sobrevivió tras recibir tres disparos. De acuerdo con la demanda presentada por su familia, una bala impactó en su cabeza por encima del ojo izquierdo, otra en el cuello y una tercera rozó su mejilla y parte de la oreja.

Las consecuencias han sido devastadoras. La menor permanece hospitalizada con una lesión cerebral traumática, discapacidad cognitiva y física permanente, hemiplejia del lado derecho y cicatrices visibles.

El ataque no solo dejó pérdidas humanas, sino una comunidad profundamente marcada por el trauma.

OpenAI enfrenta demanda tras revelarse conversaciones del tirador con ChatGPT

El caso tomó un giro inesperado cuando se reveló que el atacante había mantenido conversaciones con ChatGPT semanas antes del tiroteo. Según reportes periodísticos, el joven describió escenarios violentos relacionados con armas de fuego durante varios días.

Estos intercambios fueron detectados por un sistema automatizado de revisión de la plataforma. Como resultado, la cuenta fue suspendida por la empresa. Sin embargo, el sistema interno no determinó que existiera una amenaza “creíble o inminente”. Por esa razón, la empresa no notificó a las autoridades canadienses. Posteriormente se descubrió que el agresor había creado una segunda cuenta vinculada a la primera, lo que añadió más preguntas sobre los sistemas de monitoreo y prevención dentro de las plataformas de inteligencia artificial.

La demanda busca respuestas y responsabilidades

Ante este contexto, Cia Edmonds —madre de Maya— presentó una demanda civil en nombre de ella y de sus dos hijas, Maya y Dahlia, quienes estaban presentes durante el ataque. El objetivo del proceso judicial, según el despacho legal que representa a la familia, es esclarecer completamente lo ocurrido y determinar si existieron fallas que pudieron haber evitado la tragedia.

La demanda sostiene que la empresa aceleró la comercialización de ChatGPT sin realizar suficientes estudios de seguridad. También acusa a la compañía de mantener prácticas que, según los demandantes, resultan “reprobables y moralmente repugnantes” debido a la magnitud del daño causado.

Además de exigir explicaciones, la familia solicita una compensación punitiva no revelada y busca establecer responsabilidades que ayuden a prevenir ataques similares en el futuro.

Un debate sobre la responsabilidad de la inteligencia artificial

El caso ha abierto un debate más amplio sobre el papel de las empresas tecnológicas frente a la prevención de violencia. ¿Hasta dónde debe llegar la vigilancia de contenidos generados por usuarios? ¿Cuándo debe activarse una alerta hacia autoridades? El primer ministro de Columbia Británica, David Eby, ha sido una de las voces más críticas respecto al marco regulatorio actual. Para él, el sistema vigente deja demasiada discrecionalidad en manos de las empresas.

Eby ha señalado que no es aceptable que las plataformas decidan por sí mismas cuándo informar a la policía. Desde su perspectiva, la falta de regulación clara representa un riesgo sistémico que podría permitir que incidentes similares vuelvan a ocurrir.

OpenAI enfrenta demanda mientras promete cambios en sus políticas

Mientras OpenAI enfrenta demanda, la compañía ha iniciado conversaciones con autoridades provinciales y locales para revisar sus protocolos de seguridad. El director ejecutivo de la empresa, Sam Altman, sostuvo una reunión virtual con el primer ministro de Columbia Británica y con el alcalde de Tumbler Ridge. Durante el encuentro, reconocieron que una disculpa pública sería necesaria, aunque insuficiente frente al dolor de la comunidad.

La empresa calificó el ataque como una “tragedia indescriptible” y afirmó que trabaja con autoridades para implementar cambios que ayuden a prevenir situaciones similares. Sin embargo, no ha confirmado si el proceso judicial modificará el calendario de las disculpas públicas prometidas.

Regulación de IA: un debate que apenas comienza

El gobierno canadiense ya presionaba a las empresas de inteligencia artificial para reforzar sus sistemas de detección de violencia antes de este caso. Ahora, la presión se ha intensificado. El ministro de Inteligencia Artificial de Canadá, Evan Solomon, solicitó a la empresa aplicar sus nuevas normas de seguridad de manera retroactiva. Esto implicaría revisar interacciones pasadas detectadas por los sistemas internos para identificar posibles amenazas que no fueron reportadas en su momento.

El objetivo es determinar si existieron otros incidentes similares que, bajo los nuevos estándares, habrían sido comunicados a las autoridades policiales. De confirmarse, el debate sobre regulación tecnológica podría acelerar en el país.

La tragedia de Tumbler Ridge ha colocado a la inteligencia artificial en el centro de un dilema ético complejo. Mientras la tecnología avanza a gran velocidad, las reglas que definen su responsabilidad frente a la sociedad aún se encuentran en construcción.

El caso en el que OpenAI enfrenta demanda podría convertirse en un precedente clave para definir hasta dónde llega la obligación de las plataformas digitales cuando detectan señales de violencia. Más allá del resultado judicial, la discusión ya está transformando la forma en que gobiernos, empresas y sociedad entienden la responsabilidad de la inteligencia artificial.

PLATIQUEMOS EN REDES SOCIALES

spot_img
spot_img
spot_img
spot_img
spot_img

Lo más reciente

DEBES LEER

TE PUEDE INTERESAR