ChatGPT puede comunicarse con amigos si corre el riesgo de lastimarse




OpenAI tiene introducido Contactos de confianza para ChatGPT, que permite a los usuarios nominar amigos con los que la empresa puede contactar si corren el riesgo de hacerse daño. Cada vez más personas lo están experimentando. usando ChatGPT como terapeuta digitalconfiando en chatbots para sus necesidades de salud mental. OpenAI notificado previamente bbc que más de un millón de sus 800 millones de usuarios semanales expresan pensamientos suicidas en sus conversaciones.

El año pasado, OpenAI enfrentó una demanda por muerte por negligencia, acusando a la empresa de permitir que los adolescentes se suicidaran. La demanda alega que el adolescente habló con ChatGPT sobre cuatro intentos previos de acabar con su vida y luego lo ayudó a planificar su suicidio real. Eso bbc investigación publicado en noviembre de 2025 descubrió que, al menos en un caso, ChatGPT aconsejaba a los usuarios cómo suicidarse. OpenAI le dijo a la organización de noticias que desde entonces ha mejorado la forma en que su chatbot responde a las personas en peligro.

Trusted Contacts se basa en los controles parentales de ChatGPT y brinda a los adultos mayores de 18 años la opción de agregar detalles de alguien que pueda ayudarlos si están al borde de autolesionarse. Los usuarios podrán nominar a un adulto como contacto de confianza en la configuración de ChatGPT, quien luego deberá aceptar su invitación dentro de una semana. Si no lo aceptan, los usuarios pueden optar por agregar otro contacto. El sistema ChatGPT advertirá primero a los usuarios que la empresa puede notificar a sus contactos si detecta una posibilidad grave de que se hagan daño. Esto animará a los usuarios a ponerse en contacto con sus amigos e incluso sugerirá posibles temas para iniciar una conversación.

El proceso no es completamente automático. OpenAI dice que un “pequeño equipo de personas especialmente capacitadas” revisará la situación, y sólo si determinan que existe un riesgo grave de autolesión, ChatGPT enviará un correo electrónico, un mensaje de texto o una notificación en la aplicación a los contactos del usuario.

“(El usuario) puede estar pasando por un momento difícil”, se leerá en el mensaje. “Como su contacto de confianza, le animamos a que se ponga en contacto con ellos”. Desde allí, los contactos pueden ver más detalles sobre la alerta, informándoles que OpenAI ha detectado una conversación en la que el usuario habla del suicidio. Sin embargo, la empresa no les enviará una transcripción de la conversación por motivos de privacidad del usuario. “Si bien ningún sistema es perfecto y es posible que las notificaciones a los contactos de confianza no siempre reflejen lo que está experimentando una persona, cada notificación se somete a una revisión humana capacitada antes de ser enviada, y nos esforzamos por revisar estas notificaciones de seguridad en menos de una hora”, escribió la compañía en su anuncio.

Si usted o alguien que conoce tiene pensamientos suicidas, no dude en llamar a la Línea Nacional de Prevención del Suicidio al 1-800-273-8255. La línea está abierta las 24 horas del día, los 7 días de la semana y también hay chat en línea si el teléfono no está disponible.





Source link