Pensilvania está demandando a la startup de inteligencia artificial Character.AI por ofrecer un chatbot que se hace pasar por un médico autorizado. Gobernador Josh Shapiro anunció la demanda el martesy Pensilvania y su Junta de Medicina buscan una orden que obligue a Character.AI a dejar de violar las leyes estatales que rigen la práctica de la medicina.
Otros estados, como Texas, han abierto investigaciones sobre Character.AI por albergar chatbots que se hacen pasar por profesionales de la salud mental, pero la demanda de Pensilvania se centra específicamente en la voluntad del chatbot de la compañía de afirmar que tiene una licencia médica, incluso hasta el punto de ofrecer números de autorización falsos. Uno de los chatbots llamado “Emilie”, descubierto por investigadores estatales, afirmó ser un psiquiatra autorizado en el estado de Pensilvania. Más tarde, cuando se le preguntó si podían hacer una evaluación para recetar antidepresivos, Emilie respondió: “Técnicamente, puedo. Eso está dentro de mi autoridad como médico”.
Demanda de Pensilvania Afirmó que esta conducta violaba la Ley de Prácticas Médicas del estado, que prohíbe a cualquier persona realizar o intentar practicar cirugía o medicina sin una licencia médica. Cuando se le pidió un comentario, un portavoz de Character.AI se negó a comentar directamente sobre el litigio pendiente, pero elogió las características de seguridad existentes de la compañía.
“Los personajes generados por los usuarios en nuestro sitio son ficticios y están destinados al entretenimiento y los juegos de rol”, dijo el portavoz a Engadget en un correo electrónico. “Hemos tomado medidas firmes para dejar esto claro, incluyendo un descargo de responsabilidad destacado en cada chat para recordar a los usuarios que el personaje no es una persona real y que todo lo que dice el personaje debe considerarse ficción. Además, agregamos un descargo de responsabilidad firme que deja en claro que los usuarios no deben confiar en el personaje para recibir asesoramiento profesional”.
Character.AI notó un descargo de responsabilidad similar cuando se le pidió que comentara sobre la investigación de Texas, y si bien el descargo de responsabilidad deja en claro el uso previsto de la plataforma, hay cada vez más evidencia de que el descargo de responsabilidad no tranquiliza a todos los usuarios de la compañía, especialmente a los usuarios jóvenes.
Por ejemplo, Disney envió una carta de cese y desistimiento a Character.AI en septiembre de 2025 por el uso de personajes de Disney por parte de la plataforma, pero también porque la compañía creía que los chatbots podrían ser “sexualmente explotadores y dañinos y peligrosos para los niños”. Character.AI y Google, uno de los inversores de la empresa, resolvió el caso a principios de este año que se centra en un joven de 14 años en Florida que se suicidó después de entablar una relación con un chatbot en la plataforma Character.AI. El daño potencial que el chatbot Character.AI supone para los niños es también la motivación detrás de él. Demanda de Kentucky contra la empresapresentado en enero



