Entre malware, en línea la suplantación de identidad y la apropiación de cuentas son suficientes problemas de seguridad digital. Y con el aumento de los agentes de IA, cada vez más actividades las realizan agentes en nombre de humanos, lo que genera riesgos que pueden provocar errores.
Ahora, trabajando con la contribución inicial de Google Y tarjeta MasterCardLa asociación industrial centrada en la autenticación conocida como FIDO Alliance dijo el martes que lanzará un par de grupos de trabajo para desarrollar estándares industriales para validar y proteger pagos y otras transacciones realizadas por agentes de IA.
El objetivo es producir una base de protección que pueda aplicarse en todas las industrias. De esta manera, los usuarios pueden autorizar acciones del agente utilizando un mecanismo que no es fácil de engañar ni de que actores maliciosos puedan utilizar para proporcionar instrucciones fraudulentas al agente. El estándar también incluirá herramientas criptográficas que los servicios digitales pueden utilizar para confirmar que los agentes están llevando a cabo de manera precisa y legítima las instrucciones de las personas autenticadas, así como un marco de preservación de la privacidad para brindar a los usuarios, comerciantes y otros proveedores de servicios la capacidad de validar las transacciones iniciadas por los agentes. En otras palabras, el objetivo de estos esfuerzos es crear salvaguardias contra la piratería de agentes u otros comportamientos maliciosos, así como mecanismos de transparencia y rendición de cuentas para la resolución en caso de disputas.
“Los agentes se están volviendo más comunes, están comenzando a usarse con mayor frecuencia, pero los modelos existentes no están necesariamente diseñados para este tipo de paradigma; no están diseñados para tener en cuenta las acciones tomadas en nombre de los usuarios”, dijo a WIRED Andrew Shikiar, director ejecutivo de FIDO Alliance.
Añadió: “Si miramos hacia atrás en nuestro trabajo en los últimos años en el enorme espacio del problema de las contraseñas, esto fue hace décadas. La base de la seguridad que se convirtió en nuestra economía conectada no era adecuada para su propósito. Ahora estamos en el mismo precipicio con los agentes y las interacciones de los agentes, el comercio de agentes donde tenemos la oportunidad de no seguir el mismo camino y establecer algunos principios básicos que permitirán interacciones más confiables”.
Desarrollar estándares técnicos que puedan aplicarse ampliamente en todas las industrias y facilitar la interoperabilidad es un proceso laborioso que a menudo lleva años. Pero dado el rápido progreso y la adopción de la IA agente, los representantes de FIDO Alliance, Google y Mastercard enfatizaron que este proceso debe realizarse más rápidamente. Para lograr este objetivo, ambas empresas aportaron herramientas de código abierto a esta iniciativa. Protocolo de pago del agente de Google, o AP2ofrece un mecanismo para verificar criptográficamente que un usuario realmente tenía la intención de que se produjera una transacción iniciada por un agente en particular. El marco de intención verificable de Mastercard (desarrollado conjuntamente por Google para trabajar con AP2) es un mecanismo seguro para que los usuarios autoricen y controlen las acciones de los agentes.
“Queríamos proporcionar pruebas criptográficas de que una transacción fue autorizada por el propio usuario, pero mantenerla privada para que haya una divulgación selectiva”, dijo Stavan Parikh, vicepresidente y director general de pagos de Google. “Los diferentes actores del ecosistema (plataformas, comerciantes, proveedores de pagos, redes) ven solo la información que es relevante para ellos, pero las acciones correctas se toman en el momento adecuado. Los pagos son un problema complejo del ecosistema”.
Parikh puso el ejemplo de alguien que fue a comprar un par de zapatillas pero descubrió que estaban agotadas. El comprador le indica al agente de IA que compre las zapatillas de forma independiente si vuelven a estar disponibles y tienen un precio de $100 o menos. El objetivo es brindar autenticidad y transparencia en torno a estas transacciones para que, si cae la zapatilla perfecta, los consumidores obtengan el zapato adecuado al precio que desean.
Establecer estas salvaguardas básicas es clave para aumentar la confianza en la IA de los agentes e impulsar la adopción de herramientas impulsadas por la IA, dijo Parikh. Independientemente de si los usuarios quieren adoptar capacidades de IA o no, la realidad de la proliferación de capacidades de IA significa que sigue siendo necesario un umbral mínimo.



