Google detectó y bloqueó por primera vez un exploit zero-day que, según sus investigadores, fue desarrollado con ayuda de inteligencia artificial. El grupo de Inteligencia de Amenazas de Google (GTIG) identificó que actores destacados del cibercrimen preparaban un ataque masivo con esta vulnerabilidad.
El objetivo era saltarse la autenticación de dos factores en una herramienta de administración de sistemas web open source, sin identificar públicamente. Los especialistas de Google encontraron indicios claros en el código de que la IA participó en su creación.
Entre las evidencias más llamativas apareció un puntaje CVSS "alucinado", algo típico de las respuestas de modelos de lenguaje, junto con un formato estructurado y de manual que coincide con datos de entrenamiento de LLMs.
El exploit aprovechaba una falla de lógica semántica a alto nivel, donde los desarrolladores habían hardcodeado una suposición de confianza en el sistema de 2FA de la plataforma.

Primer caso documentado por Google
Este caso marca un hito porque es la primera vez que Google registra evidencia de que la IA se usó para crear un ataque de este tipo. Los investigadores aclararon que no creen que el modelo Gemini haya sido el utilizado. De todas formas, lograron interrumpir el exploit antes de que se desplegara a gran escala.
El informe también advierte que los ciberdelincuentes cada vez más recurren a la inteligencia artificial tanto para descubrir como para explotar vulnerabilidades de seguridad. Esto llega después de varias semanas de preocupación por las capacidades de modelos de ciberseguridad y de vulnerabilidades en Linux descubiertas con IA.
Los hackers están yendo más allá y ahora también atacan directamente a los sistemas de IA, según detalló GTIG. Observaron que los adversarios apuntan a componentes integrados que dan utilidad a las IA, como habilidades autónomas y conectores de datos de terceros.
Una de las técnicas que mencionan es el "persona-driven jailbreaking", donde se le indica al modelo que actúe como un experto en seguridad para que encuentre vulnerabilidades. Además, alimentan a las IA con repositorios completos de datos de vulnerabilidades y usan herramientas como OpenClaw para refinar payloads generados por IA en entornos controlados y mejorar su confiabilidad antes de lanzarlos.
Este episodio refuerza la doble cara de la inteligencia artificial en el mundo de la ciberseguridad: una herramienta poderosa tanto para defensores como para atacantes. Mientras las empresas como Google mejoran sus sistemas de detección, los cibercriminales aceleran sus capacidades con la misma tecnología.
Los expertos esperan que este tipo de casos se multipliquen en el futuro cercano, lo que obliga a los desarrolladores de software a revisar suposiciones de confianza hardcoded y fortalecer las revisiones de código, especialmente en herramientas críticas de administración de sistemas.