Google detiene un hack de día cero que, según dice, fue desarrollado con IA


Por primera vez, Google dice que detectó y detuvo un exploit de día cero desarrollado con inteligencia artificial. Según informes de Grupo de inteligencia sobre amenazas de Google (GTIG), un “actor líder en amenazas cibercriminales” planea utilizar la vulnerabilidad para un “evento de explotación masiva” que les permitiría eludir la autenticación de dos factores en una “herramienta de administración de sistemas basada en web de código abierto” anónima.

Los investigadores de Google encontraron pistas en el script Python utilizado para el exploit que indicaban asistencia de la IA, como “puntuaciones CVSS alucinadas” y un formato de “libro de texto estructurado” consistente con los datos de entrenamiento LLM. El exploit aprovecha “una falla de lógica semántica de alto nivel donde los desarrolladores codifican suposiciones de confianza” en el sistema 2FA de la plataforma. Esto se produce después de semanas de preocupaciones sobre las capacidades de los modelos de IA centrados en la ciberseguridad como Mythos de Anthropic y las vulnerabilidades de Linux recientemente reveladas y descubiertas con la ayuda de la IA.

Esta es la primera vez que Google encuentra evidencia de que la IA estuvo involucrada en un ataque como este, aunque los investigadores de Google señalaron que “no creen que se haya utilizado Gemini”. Google dijo que pudo “interrumpir” este exploit en particular, pero también dijo que cada vez más piratas informáticos están utilizando IA para encontrar y explotar vulnerabilidades de seguridad. El informe también menciona a la IA como un objetivo para los atacantes, diciendo que “GTIG ha observado que los adversarios apuntan cada vez más a componentes integrados que brindan utilidad a los sistemas de IA, como habilidades autónomas y conectores de datos de terceros”.

El informe de Google también detalla cómo los piratas informáticos utilizan el “jailbreaking basado en la persona” para lograr que la IA encuentre vulnerabilidades de seguridad, como un comando de ejemplo que le indica a la IA que pretenda ser un experto en seguridad. Los piratas informáticos también alimentaron repositorios completos de datos de vulnerabilidad a modelos de IA y utilizaron OpenClaw de una manera que mostró “un interés en refinar las cargas útiles generadas por IA en un entorno controlado para mejorar la confiabilidad de los exploits antes de su implementación”.



Source link