Usar IA durante solo 10 minutos puede volverte perezoso y estúpido, según muestra un estudio


Usando chatbots de IA porque incluso tan solo 10 minutos pueden tener un sorprendente impacto negativo en la capacidad de las personas para pensar y resolver problemas, según un nuevo estudio de investigadores de Carnegie Mellon, MIT, Oxford y UCLA.

Los investigadores encargaron a las personas que resolvieran una variedad de problemas, incluidas fracciones simples y comprensión lectora, a través de una plataforma en línea que les pagaba por su trabajo. Realizaron tres experimentos, en cada uno de los cuales participaron varios cientos de personas. Algunos participantes tuvieron acceso a un asistente de inteligencia artificial capaz de resolver problemas de forma independiente. Cuando de repente se les quita un asistente de IA, es probable que estas personas abandonen el problema o no respondan. Este estudio muestra que el uso generalizado de la IA puede aumentar la productividad a expensas del desarrollo de habilidades básicas para la resolución de problemas.

“La conclusión no es que debamos prohibir la IA en la educación o en el lugar de trabajo”, afirmó Michiel Bakker, profesor asistente del MIT que participó en la investigación. “La IA claramente puede ayudar a las personas a desempeñarse mejor en este momento, y esto puede ser beneficioso. Pero debemos tener más cuidado con el tipo de ayuda que brinda la IA y cuándo se brinda”.

Hace poco conocí a Bakker, que tiene el pelo revuelto y una amplia sonrisa, en el campus del MIT. Originario de Holanda, trabajó anteriormente en Google DeepMind en Londres. Me dijo que un ensayo famoso Cómo la IA podría debilitar a los humanos con el tiempo lo inspiró a pensar en cómo la tecnología podría erosionar las capacidades humanas. Este ensayo resulta una lectura un tanto sombría, ya que sugiere que la impotencia es inevitable. Por lo tanto, tal vez descubrir cómo la IA puede ayudar a las personas a desarrollar sus capacidades mentales debería ser parte de cómo los modelos se alinean con los valores humanos.

“Es básicamente una cuestión cognitiva: sobre la persistencia, el aprendizaje y cómo responde la gente a la adversidad”, me dijo Bakker. “Queremos considerar preocupaciones más amplias sobre las interacciones entre humanos y IA a largo plazo y estudiarlas en un entorno experimental controlado”.

La investigación resultante parece particularmente preocupante, dijo Bakker, porque la voluntad de una persona de persistir en la resolución de problemas es fundamental para adquirir nuevas habilidades y también predice su capacidad de aprender con el tiempo.

Bakker dice que puede ser necesario repensar cómo funcionan las herramientas de inteligencia artificial para que, como buenos maestros humanos, los modelos a veces prioricen el aprendizaje de una persona sobre la resolución de sus problemas. “Los sistemas que brindan respuestas inmediatas pueden tener efectos a largo plazo muy diferentes a los sistemas que representan, capacitan o desafían a los usuarios”, dijo Bakker. Sin embargo, reconoció que equilibrar este tipo de enfoque “paternalista” podría resultar complicado.

Las empresas de IA ya están pensando en los impactos más sutiles que sus modelos tienen en los usuarios. El atractivo de algunos modelos (o la probabilidad de que estén de acuerdo con los usuarios y los apoyen) es importante OpenAI ha trabajado para reducir esto con versiones más recientes de GPT.

Demasiada confianza en la IA será un problema si la herramienta no funciona como se espera. Los sistemas de IA de agentes son muy impredecibles porque realizan tareas complejas de forma autónoma y pueden introducir errores extraños. Uno se pregunta qué hacen Claude Code y Codex con las habilidades de los programadores que a veces necesitan corregir los errores que introducen.

Recientemente aprendí una lección sobre los peligros de relegar el pensamiento crítico a la IA. He estado usando OpenClaw (con Codex dentro) como ayuda diaria y descubrí que es muy bueno para resolver problemas de configuración en Linux. Pero recientemente, después de que mi conexión Wi-Fi seguía cayendo, mi asistente de inteligencia artificial sugirió ejecutar una serie de comandos para cambiar el controlador que hablaba con la tarjeta Wi-Fi. El resultado es que la máquina se niega a arrancar sin importar lo que haga.

Tal vez, en lugar de simplemente intentar resolver el problema por mí, OpenClaw debería detenerse por un momento para enseñarme cómo solucionar el problema en sí. Como resultado, es posible que tenga una computadora (y un cerebro) más capaces que eso.


Esta es una edición caballero Boletín del laboratorio de IA. Leer boletines anteriores Aquí.



Source link