Los esfuerzos legales de Elon Musk para desmantelar OpenAI pueden depender de cómo la filial con fines de lucro mejore o reste valor a la misión del fundador del laboratorio fronterizo de garantizar que la humanidad se beneficie de la inteligencia artificial general.
El jueves, un tribunal federal en Oakland, California, escuchó a un ex empleado y miembro de la junta directiva decir que los esfuerzos de la compañía para impulsar los productos de IA al mercado comprometían su compromiso con la seguridad de la IA.
Rosie Campbell se unió al equipo de preparación AGI de la compañía en 2021 y dejando OpenAI en 2024 después de que su equipo se disolviera. Otro equipo centrado en la seguridad, el equipo Super Alignment, cerró durante el mismo período.
“Cuando me uní, era muy común que la gente hablara sobre AGI y cuestiones de seguridad, y estaba muy centrado en la investigación”, testificó. “Con el tiempo, se ha convertido en una organización más centrada en el producto”.
Durante el contrainterrogatorio, Campbell reconoció que podrían necesitarse fondos significativos para el objetivo del laboratorio de construir AGI, pero dijo que crear modelos informáticos superinteligentes sin las medidas de seguridad adecuadas no estaría en consonancia con la misión de la organización a la que se unió.
Campbell se refirió a un incidente en el que Microsoft implementó una versión de su modelo empresarial GPT-4 en India a través de su motor de búsqueda Bing antes de que el modelo fuera evaluado por la Junta de Seguridad de Implementación (DSB) de la compañía. El modelo en sí no representa un gran riesgo, dijo, pero la compañía necesita “sentar un precedente sólido a medida que la tecnología se vuelve más sofisticada. Queremos contar con buenos procesos de seguridad que estemos seguros de que se pueden seguir”.
Los abogados de OpenAI también pidieron a Campbell que admitiera que, en su “opinión especulativa”, el enfoque de seguridad de OpenAI es superior al de xAI, la empresa de inteligencia artificial fundada por Musk y adquirida por SpaceX a principios de este año.
Evento tecnológico
San Francisco, California
|
13-15 de octubre de 2026
OpenAI publicó una evaluación del modelo y su división. marco de seguridad públicamente, pero la compañía se negó a comentar sobre su enfoque actual para la alineación de AGI. Dylan Scandinaro, el actual jefe de preparación, fue contratado de Anthropic en febrero. altman dicho el trabajador le dejaría “dormir mejor esta noche”.
Sin embargo, la implementación de GPT-4 en India fue una de las señales de alerta que llevaron a la junta directiva de la organización sin fines de lucro OpenAI a despedir temporalmente al director ejecutivo Sam Altman en 2023. El incidente ocurrió después de que los empleados, incluido el entonces científico jefe Ilya Sutskever y la entonces directora de tecnología Mira Murati, se quejaran del estilo de gestión de Altman para evitar conflictos. Tasha McCauley, uno de los miembros de la junta en ese momento, testificó sobre las preocupaciones de que Altman no fuera lo suficientemente abierto con la junta para hacer que la estructura inusual funcionara.
McCauley también analiza un ampliamente reportado patrón Altman engañó a la junta. En particular, Altman mintió a otros miembros de la junta sobre la intención de McCauley de despedir a Helen Toner, un tercer miembro de la junta que publicó un libro blanco que contenía algunas críticas implícitas a las políticas de seguridad de OpenAI. Altman tampoco notificó a la junta directiva la decisión de lanzar públicamente ChatGPT, y los miembros estaban preocupados por la falta de divulgación de posibles conflictos de intereses.
“Somos una junta sin fines de lucro y nuestro mandato es poder supervisar las organizaciones sin fines de lucro que tenemos a nuestro cargo”, dijo McCauley en el tribunal. “La principal forma de hacerlo es siendo cuestionados. Simplemente no tenemos un alto nivel de confianza para creer que la información que se nos presenta nos permite tomar decisiones de la manera correcta”.
Sin embargo, la decisión de despedir a Altman vino acompañada de una oferta pública de adquisición a los empleados de la empresa. McCauley dijo que cuando el personal de OpenAI comenzó a ponerse del lado de Altman y Microsoft intentó restaurar el status quo, la junta finalmente cambió de rumbo y los miembros se opusieron a la renuncia de Altman.
El fracaso de las juntas directivas de las organizaciones sin fines de lucro para influir en las organizaciones sin fines de lucro está directamente relacionado con el argumento de Musk de que la transformación de OpenAI de una organización de investigación a una de las empresas privadas más grandes del mundo violó el acuerdo implícito de los fundadores de la organización.
David Schizer, ex decano de la Facultad de Derecho de Columbia a quien el equipo de Musk le pagó para que actuara como testigo experto, se hizo eco de las preocupaciones de McCauley.
“OpenAI ha enfatizado que una parte importante de su misión es la seguridad y priorizarán la seguridad sobre las ganancias”, dijo Schizer. “Un esfuerzo es tomar en serio las normas de seguridad. Si hay algo que hay que revisar, hay que hacerlo. Lo importante es el proceso”.
Dado que la IA ya está firmemente arraigada en las empresas con fines de lucro, este problema no es exclusivo de un laboratorio. McCauley dijo que las fallas de gobernanza interna en OpenAI deberían ser una razón para implementar una regulación gubernamental más estricta de la IA avanzada: “(si) todo se reduce a que un CEO tome esas decisiones, y tenemos el interés público en juego, eso es muy subóptimo”.
Cuando compra a través de enlaces en nuestros artículos, es posible que ganemos una pequeña comisión. Esto no afecta nuestra independencia editorial.



