Google y el Pentágono negocian hasta ahora un acuerdo para desplegar inteligencia artificial Gemini en operaciones militares clasificadas. La propuesta incluye salvaguardas éticas que prohibirían la vigilancia masiva en EE. UU. y armas autónomas sin control humano, según múltiples fuentes recientes.

Cláusulas en contratos militares
El proyecto Maven de 2018, que provocó protestas de empleados y la salida de Google del programa militar, es el antecedente. Ahora, OpenAI firmó un acuerdo similar con el Pentágono en marzo de 2026. En contraste, Anthropic perdió 200 millones de dólares por negarse a exigencias de defensa. Google propone cláusulas que prohíben vigilancia masiva doméstica y armas autónomas sin supervisión humana. Estas restricciones responden a la presión federal y a la carrera global por IA soberana, especialmente frente a China. Un giro real es significativo. Google cambia de bando.
Inversión y presión geopolítica
Alphabet ha proyectado un gasto de 185.000 millones de dólares en infraestructura de IA para 2026, en parte por la Ley de Producción de Defensa que prioriza la seguridad nacional. El presidente Donald Trump ordenó cambiar el nombre del Departamento de Defensa a Departamento de Guerra, una medida que necesita luz verde del Congreso. Google y el Pentágono buscan con este acuerdo reducir costos operativos y agilizar tareas administrativas, en un contexto donde el avance chino en inteligencia artificial presiona a Silicon Valley a ceder principios éticos por necesidades estratégicas.
Este pacto redefine el rol en defensa, equilibrando innovación y control humano. Integrar IA en misiones secretas exige que las salvaguardas contractuales se conviertan en prácticas reales. El tiempo dirá si Google mantiene límites éticos frente a la presión geopolítica.


