Google advierte: la IA acelera los ciberataques y las vulnerabilidades de día cero

Los actores ya utilizan inteligencia artificial para generar exploits de día cero y automatizar ataques en la nube. Según el informe de Google, se ha identificado el primer exploit creado con IA destinado a un ataque masivo. El CCN-CERT monitoriza el riesgo para las más de ocho m

Google ha lanzado una advertencia que pocos en el mundo de la inteligencia y la ciberseguridad se atreverán a ignorar. El nuevo informe de su equipo de Google Cloud Threat Intelligence confirma que los actores maliciosos ya están utilizando inteligencia artificial para generar exploits de día cero, automatizar cadenas de ataque completas y evadir defensas a una escala sin precedentes. La noticia no es un futurible: el documento detalla por primera vez la identificación de un exploit de día cero desarrollado con IA y destinado a un ataque masivo, que fue neutralizado de forma proactiva antes de que pudiera desplegarse.

Se trata, muy probablemente, del punto de inflexión que llevamos años anticipando en esta redacción.

Un cambio de paradigma: de escribir phishing a fabricar vulnerabilidades con IA

Hasta ahora, el uso de la inteligencia artificial por parte de los atacantes se circunscribía a tareas como la redacción de correos de phishing más convincentes o la automatización de tareas repetitivas. Los investigadores de Google dejan claro que hemos entrado en una fase distinta. Según el informe, los grupos de amenazas están experimentando con sistemas capaces de identificar vulnerabilidades de software, generar código de explotación y acortar drásticamente los plazos de ataque. Esto ya no es una cuestión de productividad criminal: es una pregunta sobre hasta qué punto la IA puede reemplazar al operador humano en la línea de fuego.

Publicidad

La amenaza se despliega sobre el ecosistema de la nube de manera especialmente agresiva. Los atacantes han pasado de robar credenciales —algo cada vez más difícil gracias a la autenticación multifactor— a explotar software sin parche, interfaces API inseguras y herramientas de terceros. La velocidad con la que barren internet en busca de sistemas expuestos tras la publicación de un nuevo fallo es hoy de horas, a veces minutos. Yo mismo escribí hace años en El quinto elemento que «el próximo 11S empezará con un clic», y lo que dice Google es que ese clic puede ser generado por una máquina entrenada para ello.

El caso más inquietante es, sin duda, la detección del primer exploit de día cero desarrollado con ayuda de IA y vinculado a un plan de ataque masivo. Los equipos de inteligencia de amenazas de Google lograron frenarlo antes de que se materializara, pero el hecho de que existiera es un aviso de lo que se nos viene encima.

La carrera entre el parche y el exploit se ha convertido en una guerra de milisegundos en la que el atacante, por primera vez, juega con una IA de su lado.

Actores estatales, cadenas de suministro de la IA y la caza de claves API

El informe no se detiene en lo técnico. Señala con claridad el interés creciente de actores vinculados a China (como TeamPCP o UNC6780) y a Corea del Norte en capitalizar la IA para el descubrimiento de vulnerabilidades. Estos grupos han demostrado que apuntar al ecosistema de la IA —claves de API expuestas, integraciones inseguras, permisos excesivos en servicios como Gemini— puede ser un vector de acceso inicial tan eficaz como el más clásico de los ataques. De hecho, la investigación revela miles de claves de Google Cloud API expuestas públicamente que podrían dar acceso a entornos de IA sensibles o generar costes millonarios en la nube.

He hablado con analistas de inteligencia que siguen de cerca estas campañas y me consta que, en España, el Centro Criptológico Nacional (CCN-CERT) ya está monitorizando este tipo de patrones en nuestro tejido de infraestructuras críticas. Y no es para menos: en nuestro país hay más de ocho mil infraestructuras que dependen de la nube y que podrían ser objetivo de un ataque orquestado con IA. La automatización que ofrecen los modelos de lenguaje permite analizar miles de repositorios en busca de fallos en dependencias de software, generar payloads adaptados a cada entorno y lanzar campañas de ransomware con una agilidad que los equipos humanos difícilmente pueden igualar.

zero-day

Dossier Moncloa: Ojos en la Sombra

El vector de amenaza descrito por los analistas de Google es la ciberguerra ofensiva con apoyo de IA, que abarca desde la generación de exploits de día cero hasta la automatización de cadenas completas de ataque contra entornos cloud. Estamos ante un salto cualitativo en materia de tradecraft digital. Las agencias atacantes no son ya un único actor estatal, sino un ecosistema difuso que incluye grupos vinculados a la República Popular China —como TeamPCP—, actores de la República Popular Democrática de Corea interesados en el descubrimiento autónomo de vulnerabilidades y, casi con toda seguridad, servicios de inteligencia rusos como el GRU y el SVR, que llevan años invirtiendo en ciberoperaciones ofensivas. La agencia defensora es, en este caso, todo el entramado de ciberseguridad occidental, con especial mención a los equipos de inteligencia de amenazas de las grandes tecnológicas estadounidenses, los CERT nacionales y, por supuesto, nuestro CNI a través del CCN-CERT.

En el tablero de los que observan, hay que situar necesariamente a los servicios de inteligencia de países como Israel —el Mossad mantiene una unidad de ciberguerra muy activa— y a los propios marroquíes, cuyo DGST/DGED ha mostrado un apetito creciente por la inteligencia técnica en los últimos cinco años. A juzgar por la sensibilidad del material implicado —exploits de día cero generados por IA y su uso potencial para un ataque masivo—, el nivel de clasificación estimado del diseño de estas herramientas sería de Top Secret en cualquier agencia de inteligencia que las hubiera desarrollado con fines ofensivos. Que ahora un grupo criminal haya logrado algo similar con ayuda de IA nos coloca ante un escenario de proliferación de capacidades de ataque de alto nivel sin control estatal directo.

Publicidad

Conviene recordar que este cruce entre IA y ciberespionaje no es nuevo del todo. Ya en 2010, con Olympic Games, vimos cómo el malware Stuxnet era lo bastante inteligente como para operar de forma semiautónoma dentro de la planta de Natanz. Aquello fue un trabajo artesanal de las mejores mentes de la NSA y la Unidad 8200 israelí. Ahora, la IA pone en manos de cualquier grupo medianamente organizado la capacidad de emular esas tácticas sin necesidad de contar con los cientos de millones de dólares que costó aquella operación. La diferencia es que en 2026 el tiempo de reacción se ha reducido a un suspiro: lo que Google ha detectado es que la línea entre la publicación de una prueba de concepto y su explotación activa es ya de horas.

Le adelanto a usted que esto cambia las reglas del juego también para el CNI. En la Casa de Castelló, el área de ciberinteligencia tendrá que redoblar esfuerzos para incorporar modelos propios de IA defensiva que sean capaces de anticipar, en tiempo real, los movimientos de un adversario que muta casi a la velocidad del software. No hacerlo sería como pretender detener un enjambre de drones con una escopeta de cartuchos.

La posición de Moncloa.com es clara: el informe de Google no es una alarma más. Es la constatación de que la amenaza persistente avanzada —las famosas APT— acaba de incorporar una nueva arma que abarata la ofensiva y eleva el riesgo para todos los Estados. La pregunta que queda en el aire es si la próxima cumbre del Comité de Secretos Oficiales, prevista para después del verano, pondrá sobre la mesa un plan de choque en materia de inteligencia artificial aplicada a la seguridad nacional o si, como ha ocurrido en otras ocasiones, las burocracias de los servicios de inteligencia europeos llegarán tarde a esta guerra de milisegundos.