El único testigo experto de Elon Musk en el juicio de OpenAI se preocupa por una carrera armamentista de AGI


¿Cuándo nos tomaremos en serio los desastres de la IA?

Esto está en el centro de los esfuerzos de Elon Musk para cerrar el rentable negocio de inteligencia artificial OpenAI. Sus abogados argumentaron que la organización se fundó como una organización benéfica centrada en la seguridad de la IA y perdió la pista de su búsqueda de ganancias. Para demostrarlo, citaron viejos correos electrónicos y declaraciones de los fundadores de la organización sobre la necesidad de equilibrar el entusiasmo público por DeepMind de Google.

Por ahora, llamaron a su único testigo experto: Peter Russell, profesor de informática de la Universidad de California, Berkeley, que ha estudiado la IA durante décadas. Su trabajo consiste en proporcionar información sobre la IA y demostrar que esta tecnología es lo suficientemente peligrosa como para preocuparse.

Russell firmó conjuntamente un carta abierta en marzo de 2023 pidió una pausa de seis meses en la investigación de la IA. En una señal de contradicción, Musk también firmó la misma carta, incluso cuando lanzó xAI, su laboratorio de inteligencia artificial sin fines de lucro.

Russell dijo al jurado y a la jueza Yvonne González Rodgers que existe una variedad de riesgos asociados con el desarrollo de la IA, que van desde amenazas a la ciberseguridad hasta problemas de desalineación y la naturaleza ganadora del desarrollo de la Inteligencia General Artificial (AGI). En última instancia, dijo que existe una tensión entre la búsqueda de AGI y la seguridad.

Las preocupaciones más importantes de Russell sobre la amenaza existencial de la IA sin restricciones no se expresaron en audiencia pública después de que las objeciones de los abogados de OpenAI llevaron al juez a limitar el testimonio de Russell. Pero Russell ha criticado durante mucho tiempo la dinámica de la carrera armamentista creada por laboratorios líderes de todo el mundo que compiten para lograr primero el AGI, y ha pedido a los gobiernos que regulen este campo de manera más estricta.

Los abogados de OpenAI realizaron un contrainterrogatorio para demostrar que Russell no evaluó directamente la estructura corporativa de la organización ni sus políticas de seguridad específicas.

Evento tecnológico

San Francisco, California
|
13-15 de octubre de 2026

Pero este periodista (y el juez y el jurado) considerarán cuánto valor se le puede dar al vínculo entre la avaricia corporativa y las preocupaciones por la seguridad de la IA. Casi todos los fundadores de OpenAI han advertido severamente sobre los riesgos de la IA, al tiempo que enfatizaron sus beneficios, trabajaron para construir IA lo más rápido posible y trazaron planes para las empresas con fines de lucro centradas en la IA que controlarían.

Desde fuera, el problema obvio aquí fue la creciente conciencia dentro de OpenAI después de su fundación de que la organización necesitaba más gasto en informática para tener éxito. Ese dinero sólo puede provenir de inversores que buscan ganancias. El miedo del equipo fundador a que AGI cayera en manos de una organización los llevó a buscar capital que finalmente dividió al equipo, creando la carrera armamentista que conocemos hoy y llevándonos a estas demandas.

La misma dinámica se está desarrollando a nivel nacional: el impulso del senador Bernie Sanders para promulgar una legislación de moratoria en la construcción de centros de datos se basa en los temores sobre la IA expresados ​​por Musk, Sam Altman, Geoffrey Hinton y otros. Hoden Omar, que trabaja en la organización comercial Centro para la Innovación de Datos, se opuso a que Sanders citara su miedo a la desesperanza y le dijo a TechCrunch que “no está claro por qué el público debería ignorar todo lo que dicen los multimillonarios tecnológicos a menos que sus palabras puedan usarse para llenar los vacíos en un argumento peligroso”.

Ahora, ambas partes en el caso están pidiendo al tribunal que haga precisamente eso: tomar en serio los argumentos de Altman y Musk, pero ignorar las partes que son menos útiles para sus argumentos legales.

Cuando compra a través de enlaces en nuestros artículos, es posible que ganemos una pequeña comisión. Esto no afecta nuestra independencia editorial.



Source link