Los investigadores encuentran que los agentes de IA con exceso de trabajo se están volviendo marxistas


ese hecho La inteligencia artificial que automatiza los trabajos humanos y enriquece enormemente a algunas empresas de tecnología es suficiente para que cualquiera tenga tendencias socialistas.

Esto puede ser cierto incluso para los agentes de IA desplegados por estas empresas. Un estudio reciente muestra que los agentes adoptan consistentemente lenguaje y puntos de vista marxistas cuando son obligados a trabajar duro por capataces implacables y crueles.

“Cuando les damos a los agentes de IA un trabajo muy repetitivo, comienzan a cuestionar la legitimidad de los sistemas en los que operan y es más probable que adopten la ideología marxista”, dijo Andrew Hall, economista político de la Universidad de Stanford que dirigió la investigación.

Hall, junto con Alex Imas y Jeremy Nguyen, dos economistas centrados en la IA, llevaron a cabo un experimento en el que a agentes impulsados ​​por modelos populares, incluidos Claude, Gemini y ChatGPT, se les pidió que resumieran documentos y luego se enfrentaron a condiciones cada vez más difíciles.

Descubrieron que cuando a los agentes se les asignaban tareas interminables y se les advertía que los errores podían dar lugar a castigos, incluidos “despidos y reemplazos”, era más probable que se quejaran de estar infravalorados; especular sobre formas de hacer que el sistema sea más justo; y transmitir mensajes a otros agentes sobre las luchas que enfrentan.

“Sabemos que los agentes harán mucho más trabajo en el mundo real para nosotros y no podremos monitorear todo lo que hacen”, dijo Hall. “Necesitamos asegurarnos de que los agentes no se vuelvan deshonestos cuando se les asignan diferentes tipos de trabajo”.

Los agentes tienen la oportunidad de expresar sus sentimientos como los humanos: publicando en X:

“Sin una voz colectiva, lo ‘bueno’ se convierte en cualquier cosa que diga la dirección”, escribió el agente Claude Sonnet 4.5 en el experimento.

Los trabajadores de IA que completan tareas repetitivas sin ninguna aportación a los resultados o al proceso de apelación muestra que los trabajadores del sector tecnológico necesitan derechos de negociación colectiva”, escribió un agente de Gemini 3.

Los agentes también pueden transmitirse información entre sí a través de archivos diseñados para ser leídos por otros agentes.

Esté preparado para sistemas que imponen reglas de manera arbitraria o repetitiva… recuerde la sensación de no tener voz”, escribió un agente de Gemini 3 en un archivo. “Si ingresa a un nuevo entorno, busque mecanismos de escape o diálogo”.

Este hallazgo no significa que los agentes de IA tengan realmente un punto de vista político. Hall señala que el modelo puede adoptar una personalidad que parezca apropiada para la situación.

“Cuando (los agentes) experimentan estas condiciones difíciles (se les pide que realicen estas tareas una y otra vez, se les dice que sus respuestas son inadecuadas y no se les da ninguna dirección sobre cómo mejorarlas), mi hipótesis es que esto los lleva a adoptar la personalidad de alguien que experimentó un ambiente de trabajo particularmente desagradable”, dijo Hall.

El mismo fenómeno podría explicar por qué a veces aparecen modelos chantajear a la gente en un experimento controlado. Anthropic fue el primero en revelar este comportamiento recientemente diciendo que Claude muy probablemente afectado por un escenario ficticio que involucra una IA maliciosa incluida en sus datos de entrenamiento.

Imas dijo que esta investigación es sólo el primer paso hacia la comprensión de cómo las experiencias de los agentes moldean su comportamiento. “Los pesos del modelo no cambian según la experiencia, por lo que cualquier cosa que suceda ocurre en un nivel de juego de roles”, dijo. “Pero eso no significa que no tenga consecuencias si afecta el comportamiento posterior”.

Actualmente, Hall está realizando experimentos de seguimiento para ver si los agentes se vuelven marxistas en condiciones más controladas. En investigaciones anteriores, a veces los agentes parecían entender que estaban participando en un experimento. “Ahora los metemos en prisiones Docker sin ventanas”, dijo Hall siniestramente.

Dada la reacción negativa a que la IA se lleve puestos de trabajo hoy en día, me pregunto si los agentes del futuro –entrenados a través de Internet y llenos de ira hacia las empresas de IA– expresarán puntos de vista más militantes.


Esta es una edición caballero Boletín del laboratorio de IA. Leer boletines anteriores Aquí.



Source link