OpenAI está lanzando una función de seguridad opcional para ChatGPT que permite a los usuarios adultos designar contactos de emergencia por motivos de seguridad y salud mental. Los amigos, familiares o cuidadores designados como “Contactos de confianza” serán notificados si OpenAI detecta que alguien puede estar discutiendo temas como la autolesión o el suicidio con el chatbot.
“Trusted Contacts se diseñó basándose en una premisa simple validada por expertos: cuando alguien está en crisis, conectarse con alguien que conoce y en quien confía puede marcar una diferencia significativa”, dijo OpenAI en su anuncio. “Esto ofrece otra capa de soporte además de la línea de ayuda local que ya está disponible en ChatGPT”.
La función Contactos de confianza está habilitada. Cualquier usuario adulto de ChatGPT puede habilitarlo agregando los datos de contacto de un compañero adulto (mayor de 18 años en todo el mundo o mayor de 19 en Corea del Sur) en la configuración de su cuenta ChatGPT. Los contactos de confianza deben aceptar la invitación dentro de una semana de recibir la solicitud. Los usuarios pueden eliminar o editar los contactos de su elección en la configuración, y los contactos de confianza también pueden optar por eliminarse a sí mismos en cualquier momento.
OpenAI dijo que las notificaciones son “deliberadamente limitadas” y no compartirá detalles del chat ni transcripciones con contactos de confianza. Si el sistema automatizado de OpenAI detecta que un usuario está hablando de autolesión, ChatGPT alentará al usuario a comunicarse con sus contactos de confianza para obtener ayuda y les notificará que esos contactos pueden ser notificados. Luego, un “pequeño equipo de personas especialmente capacitadas” revisará la situación, según OpenAI, y ChatGPT enviará un breve correo electrónico, mensaje de texto o notificación ChatGPT en la aplicación a un contacto de confianza si se determina que la conversación indica un problema de seguridad grave.
Esta es una expansión de la función de contacto de emergencia introducida junto con los controles parentales de ChatGPT en septiembre, después de que un joven de 16 años se suicidara después de meses de confiar en ChatGPT. Meta también está introduciendo una función similar que advierte a los padres si sus hijos buscan “repetidamente” temas de autolesión en Instagram.



