Apenas unos días después de que el director ejecutivo de OpenAI, Sam Altman, escribiera una disculpa pública a la comunidad de Tumbler Ridge, Columbia Británica, tras el mortal tiroteo escolar del 10 de febrero en esa ciudad, las familias de las víctimas del evento traumático están demandando a OpenAI por negligencia.
En el tiroteo masivo, uno de los más mortíferos en la historia de Canadá, el presunto tirador, Jesse Van Rootselaar, de 18 años, entró en la escuela secundaria local de la ciudad y mató a cinco estudiantes y un profesor, e hirió a otros dos, antes de suicidarse. Más tarde, la policía local descubrió que Van Rootselaar también mató a su madre y a su media hermana de 11 años antes de ingresar a la escuela.
Por NPRLos abogados que representan a varias familias de Tumbler Ridge presentaron seis demandas diferentes el miércoles en un tribunal federal de San Francisco. Una de las denuncias, presentada en nombre de Maya Gebalaquien sobrevivió al tiroteo, acusó al sistema de seguridad automatizado de OpenAI de marcar las conversaciones ChatGPT de Van Rootselaar en junio de 2025, más de medio año antes de que ingresara a la escuela secundaria de la ciudad con un arma larga y un rifle modificado, por “actividades y planificación de violencia armada”. Además, afirman que el equipo de seguridad de OpenAI instó a la dirección a ponerse en contacto con las autoridades, pero la empresa decidió desactivar la cuenta de Van Rootselaar. Luego creó una segunda cuenta y continuó su conversación con ChatGPT.
“El incidente en Tumbler Ridge fue una tragedia. Tenemos una política de tolerancia cero contra el uso de nuestras herramientas para ayudar a la violencia”, dijo un portavoz de OpenAI a Engadget. “Como les dijimos a los funcionarios canadienses, hemos fortalecido nuestras salvaguardas, incluida la mejora de la forma en que ChatGPT responde a las señales de angustia, conectando a las comunidades con apoyo local y recursos de salud mental, fortaleciendo la forma en que evaluamos y escalamos posibles amenazas de violencia y mejorando la detección de reincidentes”.
El martes por la noche, OpenAI publicó un publicación de blog describe su política de seguridad. “Como parte de este trabajo en curso, continuamos ampliando nuestras salvaguardas para ayudar a ChatGPT a reconocer mejor los signos sutiles de daño en diferentes contextos. Algunos nuevos riesgos de seguridad se vuelven evidentes con el tiempo: un solo mensaje puede parecer inofensivo, pero patrones más amplios en una conversación larga, o entre conversaciones, pueden sugerir algo más preocupante”, escribió la compañía.
La demanda presentada el miércoles es el último intento de utilizar el sistema legal para responsabilizar a OpenAI por el diseño de su producto. El verano pasado, los padres de Adam Raine, un adolescente que se suicidó en 2025, presentaron la primera demanda conocida por muerte por negligencia contra una empresa de inteligencia artificial, acusando a ChatGPT de conocer los cuatro intentos anteriores de Raine de suicidarse antes de que finalmente lo lograra.



