Estoy rogando a las empresas de inteligencia artificial que dejen de nombrar funciones con el nombre de procesos humanos


Anthropic acaba de anunciar una nueva característica llamada “dreaming” en la conferencia de desarrolladores de la compañía en San Francisco. Es parte de la infraestructura de agentes de IA lanzada recientemente por Anthropic y diseñada para ayudar a los usuarios a administrar e implementar herramientas que automatizan los procesos de software. Este aspecto del “sueño” clasifica las transcripciones de lo que el agente acaba de completar e intenta recopilar ideas para mejorar el desempeño del agente.

Las personas que utilizan agentes de IA a menudo los envían a viajes de varios pasos, como visitar varios sitios web o leer varios archivos, para completar tareas en línea. Esta nueva función de “sueño” permite a los agentes buscar patrones en sus registros de actividad y mejorar sus capacidades en función de esos conocimientos.

El nombre de esta característica nos recuerda inmediatamente a la novela de ciencia ficción de Philip K. Dick, ¿Sueñan los androides con ovejas eléctricas?que explora las cualidades que realmente diferencian a los humanos de las máquinas sofisticadas. Si bien nuestras actuales herramientas de IA generativa todavía están muy lejos de las máquinas de este libro, estoy listo para trazar la línea aquí y ahora: ya no existen características de IA generativa con nombres que imiten los procesos cognitivos humanos.

“Juntos, los recuerdos y los sueños forman un poderoso sistema de memoria para el autodesarrollo”, dice. Publicación de blog antrópico sobre el lanzamiento de esta vista previa de investigación para desarrolladores. “La memoria permite a cada agente capturar lo que aprende cuando funciona. Soñar purifica esos recuerdos entre sesionesaplicar el aprendizaje compartido entre agentes y mantenerlo actualizado”.

Cortesía de Claude

Desde el inicio de la revolución de los chatbots en 2022, los líderes de las empresas de inteligencia artificial han estado trabajando arduamente para nombrar aspectos de las herramientas de inteligencia artificial generativa en función de lo que sucede en el cerebro humano. OpenAI lanzará su primer modelo de “razonamiento” en 2024, en el que el chatbot se toma tiempo para “pensar”. Eso empresa explicada este lanzamiento en ese momento como “una serie de nuevos modelos de IA diseñados para dedicar más tiempo a pensar antes de responder”. Muchas startups también dicen que sus chatbots tienen “recuerdos” de sus usuarios. En lugar del almacenamiento flash al que normalmente se hace referencia como “recuerdos” de computadora, se trata de una recopilación de información más humana: vive en San Francisco, disfruta de los partidos de béisbol por la tarde y odia comer melones.

Este es un enfoque de marketing consistente utilizado por los líderes de la IA, que continúan apoyándose en marcas que desdibujan la línea entre lo que hacen los humanos y lo que las máquinas pueden hacer. Incluso la forma en que estas empresas desarrollan chatbots, como Claude, con “personalidades” distintas, puede hacer que los usuarios sientan como si estuvieran hablando con algo que tiene el potencial de una vida interior profunda, algo que voluntad potencialmente experimentar sueños aunque mi computadora portátil esté cerrada.

En Anthropic, esta antropomorfización va más allá de una simple estrategia de marketing. “También hablamos de Claude en términos generalmente reservados para los humanos (por ejemplo, ‘virtud’, ‘sabiduría’)”, se lee en parte del Constitución antrópica describe cómo quiere que se comporte Claude. “Hicimos esto porque esperábamos que el razonamiento de Claude se refiriera a conceptos humanos por defecto, dado el papel de los textos humanos en la formación de Claude; y pensamos que alentar a Claude a adoptar ciertas cualidades humanas podría ser activamente deseable”. La empresa incluso contrató a un filósofo para intentar comprender los “valores” del robot.



Source link