Google firma con el Pentágono el uso de su IA en misiones clasificadas

El acuerdo permite desplegar los modelos Gemini en redes clasificadas del Departamento de Defensa, ocho años después de que Google abandonara el Project Maven. La administración Trump acelera la integración de IA de frontera en la cadena de mando militar y profundiza la dependenc

Google ha firmado con el Pentágono un contrato que permite el uso de sus modelos de inteligencia artificial en misiones clasificadas del Departamento de Defensa estadounidense, según ha adelantado The Information. El acuerdo marca un giro doctrinal en Silicon Valley y reabre el debate sobre el papel de las grandes tecnológicas en la guerra moderna.

El pacto, cuya cuantía no se ha hecho pública, autoriza el despliegue de los modelos Gemini en entornos compartimentados con habilitación de seguridad. Es decir: redes aisladas, infraestructura propia y acceso restringido al personal con clearance. Google entra de lleno en el negocio de la IA militar clasificada tras años de resistencia interna que culminaron en la salida del programa Maven en 2018.

Del Project Maven a la IA clasificada: la rendición de Mountain View

Conviene recordar el precedente. En 2018, miles de empleados de Google firmaron una carta interna que obligó a la compañía a no renovar su participación en el Project Maven, el programa del Pentágono que usaba algoritmos de visión por computador para analizar imágenes de drones. Sundar Pichai aprobó entonces unos principios de IA que, sobre el papel, vetaban el desarrollo de armas autónomas y de tecnología destinada a ‘causar daño.

Publicidad

Esos principios se han ido erosionando. A comienzos de 2025, Google retiró de su web los compromisos que excluían explícitamente las aplicaciones armamentísticas. Lo que entonces pareció un retoque cosmético, hoy se entiende como preparación del terreno. El nuevo contrato confirma el viraje completo: Mountain View ya no compite por evitar el negocio militar, compite por ganarlo.

El acuerdo establece límites teóricos. Según las fuentes citadas por The Information, los modelos no podrán usarse para vigilancia masiva indiscriminada ni para sistemas de armas plenamente autónomas, esos en los que la decisión de abrir fuego se toma sin intervención humana. La letra pequeña, sin embargo, deja zonas grises amplias: análisis de inteligencia, asistencia a la cadena de mando, fusión de datos C4ISR (mando, control, comunicaciones, computación, inteligencia, vigilancia y reconocimiento) y soporte a operaciones de información.

Microsoft, Amazon, Palantir, OpenAI: la carrera por el contrato del siglo

Google no llega primero. Microsoft tiene desde hace años el contrato JWCC (Joint Warfighting Cloud Capability), Amazon Web Services aloja parte de la infraestructura clasificada de la CIA y la NSA, Palantir es ya el cerebro analítico del Mando de Operaciones Especiales y OpenAI firmó en 2024 un acuerdo con Anduril para integrar sus modelos en sistemas anti-dron. El Pentágono está reconfigurando su base tecnológica con cuatro o cinco proveedores civiles que sustituyen al modelo histórico de contratistas tradicionales como Lockheed o Raytheon.

La lógica es de pura aritmética. El gasto en IA militar del Departamento de Defensa supera ya los 1.800 millones de dólares anuales, según los presupuestos consolidados de 2025, y la curva apunta a duplicarse antes de 2030. Quien no entre ahora, queda fuera del ecosistema clasificado durante una década.

inteligencia artificial militar

La administración Trump ha acelerado el proceso. La doctrina del segundo mandato, articulada en torno al concepto de ‘dominio tecnológico’, exige que la superioridad militar estadounidense pase por la integración de IA de frontera en todos los niveles operativos. Y eso significa Gemini, GPT, Claude y los modelos de Meta corriendo en redes SIPR y JWICS.

Publicidad

Equilibrio de Poder

Lo que observamos es un cambio estructural en la relación entre Silicon Valley y el aparato de seguridad nacional estadounidense, con consecuencias geopolíticas de calado. La administración Trump consolida así una ventaja tecnológica que ni China ni Europa están en condiciones de igualar a corto plazo. Pekín avanza con sus propios modelos —DeepSeek, Qwen, Ernie— pero carece del acceso a los chips de NVIDIA de última generación, bloqueado por las sanciones. Moscú, sencillamente, no juega esta liga.

El Kremlin ha respondido con una doctrina mucho más permisiva sobre el uso de IA en sistemas Lancet y en los enjambres de Geran-2 desplegados sobre Ucrania. Sin contrapesos éticos. Sin debate público. La asimetría es brutal y, paradójicamente, presiona a las democracias occidentales a relajar sus propios límites para no quedarse atrás.

El contrato con Google certifica que la frontera entre Silicon Valley y el Pentágono ya no existe: la IA de frontera es, desde hoy, infraestructura militar crítica de Estados Unidos.

Para España y para Bruselas, la lectura es incómoda. La UE ha aprobado el AI Act con restricciones explícitas sobre usos militares de la IA, y el Reglamento entrará en plena aplicación a lo largo de 2026. Las tecnológicas europeas operan con un corsé que sus competidoras estadounidenses no tienen, y eso se traduce en menos contratos, menos talento atraído y menos capacidad de incidir en los estándares globales. La Agencia Europea de Defensa lleva meses intentando articular una respuesta —el programa EUDIS, las iniciativas de IA defensiva del Fondo Europeo de Defensa— pero la escala es incomparable.

España, en concreto, depende de proveedores estadounidenses para la práctica totalidad de su capa cloud clasificada. La base de Rota usa infraestructura AWS GovCloud, los sistemas de mando del Ejército del Aire integran soluciones Microsoft, y el CCN-CERT lleva años advirtiendo, en sus informes anuales, sobre la dependencia tecnológica crítica con Washington. Si Google entra en el club de la IA militar clasificada, la dependencia se profundiza. Y los márgenes de maniobra de Moncloa se estrechan.

La lectura a 5-10 años es la que importa. La integración de modelos de IA generativa en la cadena de mando militar va a transformar la velocidad de la decisión operativa, comprimiendo el ciclo OODA (observar, orientar, decidir, actuar) hasta extremos que harán difícil mantener al humano significativamente in the loop. Los límites teóricos del contrato Google-Pentágono —no a las armas autónomas, no a la vigilancia masiva— solo valdrán mientras nadie los necesite saltar. El precedente histórico es el de la disuasión nuclear en los años cincuenta: la doctrina llegó tarde, después de que la tecnología hubiera reescrito las reglas. Aquí pasará lo mismo.

El próximo hito a vigilar es la cumbre de la OTAN prevista para junio de 2026, donde está sobre la mesa una declaración aliada sobre uso responsable de IA en defensa. Y, en paralelo, el informe anual del SIPRI sobre gasto militar global, que ofrecerá la primera cuantificación seria del peso de la IA en los presupuestos de Defensa. Hasta entonces, el contrato de Google con el Pentágono opera ya en modo silencioso. En misiones que nadie verá. Y eso, precisamente, es lo que más preocupa.