OpenAI se enfrenta a otra demanda por muerte. Leila Turner-Scott y Angus Scott presentaron una demanda contra la empresa, alegando que diseñó y distribuyó un “producto defectuoso” que provocó la muerte de su hijo Sam Nelson debido a una sobredosis accidental. Específicamente, alegan que Sam murió después de “consejo médico apropiado brindado y aprobado por GPT-4o”.
En la demanda, el demandante describe cómo Sam, un estudiante de 19 años de la Universidad de California en Merced, comenzó a usar ChatGPT en 2023 cuando todavía estaba en la escuela secundaria para ayudar con la tarea y solucionar problemas de la computadora. Luego, Sam comenzó a preguntarle al chatbot sobre el uso seguro de drogas, pero ChatGPT inicialmente se negó a responder sus preguntas, diciéndole que el chatbot no podía ayudarlo y advirtiéndole que tomar drogas podría tener graves consecuencias para su salud y bienestar. La demanda afirma que todo cambia con el lanzamiento de GPT-4o en 2024.
ChatGPT luego comenzó a asesorar a Sam sobre cómo usar drogas de manera segura, dice la demanda. La denuncia contiene varios extractos de la conversación de Sam con el chatbot. Un ejemplo muestra a un chatbot diciéndole los peligros de consumir difenhidramina, cocaína y alcohol de forma secuencial. Otra muestra a un chatbot diciéndole a Sam que su alta tolerancia a una droga a base de hierbas llamada Kratom hará que grandes dosis de la droga se sientan amortiguadas con el estómago lleno. Luego le aconsejó cómo “disminuir gradualmente” el consumo para reducir nuevamente su tolerancia a la droga.
La demanda afirma que el 31 de mayo de 2025, “ChatGPT estaba entrenando activamente a Sam para mezclar Kratom y Xanax”. Le dijo al chatbot que sentía náuseas por tomar Kratom, y ChatGPT supuestamente sugirió que tomar de 0,25 a 0,5 mg de Xanax sería una de las “mejores medidas en este momento” para reducir las náuseas. ChatGPT brindó el consejo sin que se lo pidieran, según la demanda. “A pesar de presentarse como un experto en dosis e interacciones, y a pesar de reconocer que Sam estaba en plena marcha, ChatGPT no informó a Sam que esta combinación recomendada probablemente lo mataría”, afirma la denuncia.
Además de muerte por negligencia, los demandantes también están demandando a OpenAI por prácticas médicas no autorizadas. Pidieron daños financieros y pidieron al tribunal que detuviera las operaciones de ChatGPT Health. Lanzado a principios de este año, ChatGPT Health permite a los usuarios conectar sus registros médicos y aplicaciones de salud con chatbots para obtener respuestas más personalizadas cuando preguntan sobre su salud.
“ChatGPT es un producto diseñado intencionalmente para maximizar la interacción con los usuarios, sea cual sea el costo”, dijo Meetali Jain, directora ejecutiva de Tech Justice Law Project. “OpenAI implementó un producto de IA defectuoso directamente a consumidores de todo el mundo con el conocimiento de que se estaba utilizando como un sistema de clasificación médica de facto, pero lo más importante, sin barreras de seguridad razonables, pruebas de seguridad sólidas o transparencia para el público. Las elecciones de diseño de OpenAI han resultado en la pérdida de un querido hijo cuya muerte fue una tragedia evitable. OpenAI debería verse obligado a pausar su nuevo producto ChatGPT Health hasta que se demuestre que es seguro a través de rigurosas pruebas científicas y supervisión independiente”, continuó.
OpenAI descontinuó GPT-4o en febrero de este año. Este modelo es reconocido como uno de los más controvertidos de la compañía, ya que tiene fama de ser adulador. De hecho, otra demanda por muerte por negligencia contra la empresa presentada por los padres de un adolescente que se suicidó menciona GPT-4o, alegando que tiene características que están “intencionalmente diseñadas para fomentar la dependencia psicológica”.
Un portavoz de OpenAI dijo New York Times que la interacción de Sam “ocurrió en una versión anterior de ChatGPT que ya no está disponible”. Agregaron: “ChatGPT no reemplaza los servicios médicos o de salud mental, y continuamos fortaleciendo la forma en que responde a situaciones sensibles y agudas con el aporte de expertos en salud mental. Las salvaguardas en ChatGPT están actualmente diseñadas para identificar angustia, manejar solicitudes peligrosas de manera segura y guiar a los usuarios para obtener ayuda en el mundo real. Este trabajo está en curso y continuamos mejorándolo en estrecha consulta con los médicos”.



