Índice
- La promesa que nobody cumplió
- Maven: la vez que dijeron no
- GenAI.mil: la fábrica de agentes autónomos
- La guerra que usa a Google
- La empresa que castigaron por decir no
- Dr. SV: el cuerpo como dato colonial
- La misma infraestructura
- Lo que cambia y lo que no
1. La promesa que nobody cumplió
En junio de 2018, Sundar Pichai publicó los principios de IA de Google. Fueron redactados bajo presión: miles de empleados se habían negado a trabajar en Project Maven, el programa del Pentágono que usaba IA para analizar filmaciones de drones. La promesa era clara: Google no desarrollaría IA "para vigilancia que viole normas internacionalmente aceptadas" ni para armas "cuyo objetivo principal sea causar o facilitar directamente lesiones a personas".[1]
Ocho años después, Google firmó un acuerdo clasificado con el Departamento de Guerra —antes llamado Departamento de Defensa— para desplegar sus modelos Gemini en redes clasificadas del Pentágono.[2] La portavoz Kate Dreyer no respondió preguntas específicas sobre el contrato. Dijo que Google estaba "orgulloso de ser parte de un amplio consorcio" que provee servicios de IA "en apoyo a la seguridad nacional".[2:1]
La diferencia entre "no construiremos armas" y "estamos orgullosos de apoyar la seguridad nacional" es la distancia entre una corporación con ética y una corporación con relaciones públicas. Esa distancia se recorrió en ocho años, y el camino fue una línea recta.
2. Maven: la vez que dijeron no
Para entender lo que pasó, hay que recordar lo que pasó antes.
Project Maven era un programa del Pentágono que usaba algoritmos para procesar horas de filmación de drones y generar candidaturas de objetivos. Google participaba como proveedor de infraestructura. Cuando el proyecto se hizo público en 2018, unos 4.000 empleados firmaron una carta pidiendo a Pichai que cancelara el contrato. Docenas renunciaron. El escándalo fue suficiente: Google no renovó el contrato y Pichai publicó sus principios rectores.[1:1]
Pero Maven no murió. Continuó sin Google, operado por Palantir, que nació con financiamiento de la CIA y nunca tuvo crisis de conciencia sobre a quién servir. Maven creció hasta convertirse en uno de los programas de IA líderes del Pentágono. La retirada de Google no fue una victoria ética: fue una pausa táctica.[3]
Lo que cambió entre 2018 y 2026 no fue la tecnología. Fue el marco político. Trump había ordenado a todas las agencias federales dejar de usar tecnología de Anthropic —la empresa que pidió garantías— y la había designado "riesgo para la cadena de suministro de seguridad nacional", una categoría reservada para adversarios extranjeros.[4] Hegseth, el Secretario de Guerra, hizo de la adopción de IA su prioridad número uno y prometió transformar al ejército en "una fuerza de combate AI-first".[5] El presupuesto de defensa solicitado para 2027 es de 1,5 billones de dólares, el más grande en la historia moderna de Estados Unidos.[6]
En ese contexto, decir no al Pentágono dejó de ser una opción moral y pasó a ser un riesgo existencial. Google lo supo, y esperó su momento.
3. GenAI.mil: la fábrica de agentes autónomos
El 9 de diciembre de 2025, el Departamento de Guerra lanzó GenAI.mil, una plataforma que da acceso a modelos de lenguaje de frontera a hasta 3 millones de usuarios del aparato de defensa. Alcanzó 500.000 usuarios en una semana y 1 millón en un mes, "con cero problemas de latencia y cero tiempo de inactividad", según Karen Dahut, CEO de Google Public Sector.[7]
En abril de 2026, el Pentágono integró Gemini 3.1 Pro —el modelo más avanzado de Google— en la plataforma, apenas ocho semanas después de su lanzamiento comercial. Es el modelo más sofisticado disponible, y está al alcance de 1,3 millones de usuarios activos en el departamento, con acceso a datos de nivel IL5, el más alto para información no clasificada sensible.[7:1]
Pero lo verdaderamente importante no es el chatbot. Son los agentes.
Usando una herramienta llamada Agent Designer, los empleados del Pentágono han construido más de 100.000 agentes de IA autónomos: sistemas que usan modelos de lenguaje para ejecutar tareas sin intervención humana en cada paso. Estos agentes tienen autorización para operar con los datos más sensibles del departamento. No requieren experiencia en programación: cualquiera puede construir uno con lenguaje natural.[7:2]
Gavin Kliger, el Chief Data Officer del Pentágono, lo dijo sin rodeos: "El viejo concepto de los modelos de lenguaje como interfaz de chat está dando paso a una plataforma real donde puede ejecutar tareas por su cuenta".[7:3]
Cien mil agentes autónomos. Construidos por militares y civiles del Pentágono. Con acceso a datos de inteligencia. Sin supervisión técnica. Con lenguaje natural. Esto no es un experimento de laboratorio: es infraestructura operativa.
4. La guerra que usa a Google
La IA del Pentágono no es teórica. Se está usando ahora, en la guerra con Irán.
NBC News confirmó que los sistemas de IA están siendo usados para "analizar inteligencia y proveer soporte de targeting" en el conflicto.[2:2] No se trata de logística o nóminas: se trata de seleccionar objetivos para bombardear.
El contexto es este: desde el 8 de abril existe un alto al fuego entre Estados Unidos e Irán, pero Trump amenaza con reiniciar los ataques. El estrecho de Ormuz está bloqueado. El petróleo Brent rozó los $126 por barril antes de retroceder cuando Axios reportó que el jefe del CENTCOM briefearía a Trump sobre una ola de ataques "corta y poderosa" para forzar a Irán a rendirse.[8] Trump dijo que el bloqueo era "100% infalible" y que Irán estaba "ahogándose como un cerdo relleno".[8:1] El precio promedio de la gasolina en Estados Unidos alcanzó los $4.30 por galón, y la Reserva Federal advirtió que la suba continuaría.[8:2]
En paralelo, el Pentágono pidió formalmente al Congreso que codifique el nombre "Departamento de Guerra", con un costo estimado de $52,5 millones. La justificación es explícita: el nombre "transmite un mensaje más fuerte de preparación y resolución" y "señala a los adversarios la disposición de Estados Unidos para librar guerras".[6:1]
De "Don't be evil" a "señala a los adversarios la disposición para librar guerras" en ocho años. La corporación que en 2018 se negó a analizar filmaciones de drones ahora provee la infraestructura de IA que selecciona qué bombardear en la guerra más grande del Medio Oriente desde Iraq.
5. La empresa que castigaron por decir no
Anthropic pidió dos cosas al Pentágono: que la IA no se usara para vigilancia doméstica masiva y que no controlara armas letales autónomas sin supervisión humana apropiada. No eran demandas radicales: eran el mínimo ético que cualquier empresa debería exigir antes de entregar su tecnología al aparato militar.
La respuesta fue contundente. Hegseth designó a Anthropic como "riesgo para la cadena de suministro de seguridad nacional". Trump ordenó a todas las agencias federales dejar de usar productos de Anthropic y llamó a la empresa un grupo de "Leftwing nut jobs".[4:1] El caso está en los tribunales: un juez en California detuvo preliminarmente la expulsión; un juez en Washington D.C. no lo hizo.[4:2]
La señal es clara. Si pedís límites, sos un riesgo de seguridad nacional. Si no los pedís, sos un socio orgulloso.
OpenAI firmó inmediatamente después de que Anthropic fuera castigado, aunque tuvo que ajustar el lenguaje del contrato días después del escándalo público por la ausencia de guardrails. El acuerdo modificado especifica que los servicios de OpenAI "no serán usados intencionalmente para vigilancia doméstica de personas y nacionales de EE.UU." — una redacción lo bastante estrecha como para excluir la vigilancia de no-estadounidenses y lo bastante vaga como para no impedir nada que el Pentágono realmente quiera hacer.[9]
Brian McGrail, del Center for AI Safety, lo explicó: las agencias de inteligencia toman "interpretaciones muy liberales" de las provisiones sobre vigilancia, y como los contratos son privados, es imposible juzgar la robustez de las prohibiciones.[9:1]
Google no pidió garantías. No hubo escándalo. No hubo retraso. Simplemente firmó.
6. Dr. SV: el cuerpo como dato colonial
Mientras Google despliega su IA para seleccionar objetivos en Irán, en El Salvador la misma compañía está construyendo algo que parece su inverso pero que opera con la misma lógica: la apropiación de datos como forma de soberanía corporativa.
El 15 de abril de 2026, Nayib Bukele anunció en cadena nacional que cedería gran parte de la gestión del sistema público de salud a un sistema de IA de Google. La aplicación se llama Dr. SV. Cada salvadoreño podrá descargarla, crear un expediente clínico, ingresar síntomas, recibir diagnósticos por IA, y obtener seguimiento para enfermedades crónicas. Bukele apareció en una reunión televisada con Guy Nae, director de Google Cloud para el Sector Público en Latinoamérica, y aseguró que "estamos creando el mejor sistema de salud del mundo".[10]
Lo que Bukele no mencionó: su gobierno despidió a 7.700 empleados del sistema de salud el año anterior, entre médicos, especialistas, enfermeros y personal de atención básica.[10:1] El sistema que Google está "mejorando" fue previamente desmantelado. No es una modernización: es un reemplazo. Los médicos humanos fueron despedidos y la IA de Google ocupa su lugar.
El acuerdo tiene una duración de siete años, destina al menos $500 millones, y la información relacionada con el proyecto está bajo reserva.[10:2] Nadie sabe exactamente qué datos accede Google, cómo los procesa, dónde se almacenan, quién los audita, o qué ocurre si Google decide retirarse —como ya hizo con el Bitcoin, que Bukele adoptó como moneda de curso legal para después retirarlo silenciosamente cuando el experimento fracasó, después de gastar $329 millones de dinero público.[11]
La aplicación es un ensayo clínico, según Stella Aslibekyan, epidemióloga de la Universidad de Alabama que participa en el proyecto. Un ensayo clínico con la población entera de un país como sujetos de experimentación. El "Comité de Ética de El Salvador" que supuestamente supervisa el proyecto es "desconocido públicamente", según El País. Tampoco se conocen los médicos a cargo de las consultas por la aplicación.[10:3]
El patrón es reconocible. Primero fue el Bitcoin: un experimento monetario con el país como casino. Ahora es la salud: un experimento de IA con 6,3 millones de cuerpos como dataset. Y en ambos casos, el socio corporativo obtiene algo que el país entrega sin condiciones: en el primer caso, legitimidad para una criptomoneda; en el segundo, acceso a uno de los conjuntos de datos de salud más completos de Latinoamérica.
Google no está en El Salvador por la salud de los salvadoreños. Está ahí porque un país pequeño, empobrecido, con un gobierno autoritario y sin contrapesos institucionales es el lugar ideal para un experimento que no podría realizar en jurisdicciones con regulación de datos funcional. El Global Sur como laboratorio no es nuevo. Lo nuevo es la escala y la naturalidad con la que se presenta como progreso.
7. La misma infraestructura
Acá está el núcleo. La misma empresa que provee IA para targeting militar en Irán procesa los datos de salud de 6,3 millones de salvadoreños. El mismo modelo —Gemini 3.1 Pro— que analiza inteligencia para bombardeos corre detrás de la app que diagnostica diabetes en San Salvador. La misma infraestructura. La misma corporación. El mismo modelo de extracción.
En el Norte, los datos se usan para seleccionar a quién matar. En el Sur, los datos se usan para apropiarse de los cuerpos. Dos caras del mismo sistema: la soberanía corporativa sobre la información como forma de poder que no necesita territorio, solo acceso.
Haraway ya lo dijo: la tecnología nunca fue neutral. Lo que estamos viendo no es una corrupción de un sistema que era bueno. Es la revelación de lo que siempre fue. Google no cambió: las condiciones cambiaron. El marco político que en 2018 hacía impopular colaborar con el Pentágono —con empleados que podían renunciar, prensa que podía investigar, una opinión pública que podía presionar— fue reemplazado por un marco donde la colaboración es obligatoria, la disidencia es "riesgo de seguridad nacional", y la empresa que pide límites es castigada.
El Pentágono lo sabe. Kliger lo dijo con claridad: "China tiene una relación de control entre gobierno y sector privado. Asegurar que estamos trabajando con los labs de frontera es increíblemente importante".[7:4] La comparación con China no es casual: es la justificación. Si el adversario fusiona Estado y corporación, nosotros también debemos hacerlo. El resultado es un complejo militar-corporativo donde las líneas entre Google y el Pentágono no existen en términos prácticos.
Y en El Salvador, Bukele no hace más que seguir la misma lógica en miniatura: fusionar su régimen con la corporación tecnológica que le da legitimidad. La app de salud no es política pública: es branding. Bitcoin fue branding. El CECOT es branding. Todo es contenido para la producción permanente del espectáculo, y Google es el coproductor.
8. Lo que cambia y lo que no
En 2018, 4.000 empleados de Google se negaron a trabajar en Maven. En 2026, 580 firmaron una carta. La diferencia no es solo numérica: es estructural. En 2018, la presión funcionó porque el marco político lo permitía. En 2026, la carta de los empleados es irrelevante porque el marco ya no permite que la ética corporativa funcione como freno. La corporación que dijo "no construiremos armas" ahora firma contratos clasificados y no responde preguntas. La corporación que publicó principios rectores ahora dice estar "orgullosa" de proveer servicios a la máquina de guerra.
El Departamento de Guerra —nuevamente llamado así por decisión ejecutiva, ahora buscando ratificación legislativa con un presupuesto de $52,5 millones solo para el cambio de nombre— tiene 100.000 agentes de IA autónomos, 1,3 millones de usuarios activos en GenAI.mil, y un presupuesto de $1,5 billones para 2027. Google es el proveedor principal. Anthropic fue el castigo ejemplar. OpenAI fue la conversión dócil. Y el mundo —Ormuz ardiendo, petróleo a $126, gasolina a $4.30— siente las consecuencias materiales de una convergencia que se vendió como innovación.
Bukele le entrega los datos de salud de su país a la misma empresa que bombardea Medio Oriente. Lo llama "el mejor sistema del mundo". El bitcoin ya fracasó. La salud probablemente también. Pero el dato —ese sí— queda. El extractivismo de datos no necesita que el experimento funcione. Solo necesita que el dataset se complete.
Lo que murió no fue un slogan corporativo. Lo que murió fue la ficción de que la tecnología podía ser separada del poder que la financia, la dirige y la despliega. "Don't be evil" nunca fue una restricción. Fue un decorado. El escenario ya estaba armado. Ahora se bajó el telón y todos pueden ver la maquinaria. La pregunta ya no es si Google es ético. La pregunta es qué hacen los 6,3 millones de salvadoreños, los habitantes del Golfo bajo bombardeo, y los 580 empleados que firmaron una carta que nadie va a leer, con un sistema que los excede por todos lados.
Notas y fuentes
The New York Times, "Google Will Not Renew Pentagon Contract That Upset Employees", junio 2018. nytimes.com ↩︎ ↩︎
NBC News, "Pentagon inks deal with Google for AI services", abril 2026. nbcnews.com ↩︎ ↩︎ ↩︎
Bloomberg, "Palantir AI system wins key Pentagon status", marzo 2026. bloomberg.com ↩︎
Decrypt, "Anthropic won't lift AI safeguards in Pentagon dispute", febrero-marzo 2026. decrypt.co ↩︎ ↩︎ ↩︎
Department of War, "Transforming the Defense Innovation Ecosystem to Accelerate Warfighting Advantage", enero 2026. media.defense.gov ↩︎
Military Times, "Pentagon asks Congress to codify 'Department of War,' estimates $52 million cost", abril 2026. militarytimes.com ↩︎ ↩︎
Defense One, "Pentagon adds Google's latest model to GenAI.mil as usage soars", abril 2026. defenseone.com ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
New York Post, "Oil prices briefly hit wartime high as Trump weighs new strikes on Iran", abril 2026. nypost.com ↩︎ ↩︎ ↩︎
NBC News, "OpenAI alters deal with Pentagon as critics sound alarm on surveillance", marzo 2026. nbcnews.com ↩︎ ↩︎
El País, "Bukele cede a la IA de Google la gestión médica en El Salvador", abril 2026. elpais.com ↩︎ ↩︎ ↩︎ ↩︎
El País, "Bukele da marcha atrás y retira al bitcoin la condición de moneda legal en El Salvador", enero 2025. elpais.com ↩︎