Anthropic ficha al general, el Pentágono blinda ocho y la memoria entra al earnings call
Anthropic ficha al general, el Pentágono blinda ocho y la memoria entra al earnings call
1 de mayo de 2026
Lo que cierra hoy no es un contrato más: es la institucionalización de la demanda. El Pentágono comunicó esta jornada que ocho compañías de IA frontera —Amazon Web Services, Google, Microsoft, NVIDIA, OpenAI, SpaceX, Reflection AI y, sumada el mismo día, Oracle— quedan autorizadas a desplegar sus modelos sobre redes clasificadas Impact Level 6 y 7, las que manejan información Secret y Top Secret del Department of War.123 El portafolio que el 28 de abril cubríamos como una experiencia con tres proveedores —OpenAI, Google y xAI— se convirtió en una matriz formal de ocho con stacks de hardware deliberadamente distintos, y la frase con la que el CTO del Pentágono Emil Michael selló la jugada en CNBC ya tiene fuerza de doctrina: Anthropic queda afuera por ser "un riesgo de cadena de suministro".4 Más de 1,3 millones de personal del DOD ya usaron la plataforma GenAI.mil; las decenas de millones de prompts emitidos en cinco meses convirtieron la inferencia clasificada en infraestructura cotidiana, no en piloto.
La respuesta de Anthropic, anunciada en paralelo, mide la altura del problema: la empresa contrató como strategist-in-residence a James Baker, ex director de la Office of Net Assessment, el think tank interno del Pentágono entre 2015 y 2025.5 Baker no es ingeniero; es alguien con diez años de capital institucional en el aparato de seguridad nacional estadounidense, contratado para discutir el marco que hoy lo deja afuera. La pelea ya no es por una licitación: es por la frontera doctrinal que decide qué empresa de IA puede ser proveedor del Estado y bajo qué condiciones —el mismo cuello que el Army Tabletop Exercise sobre ciberdefensa agéntica, también del día, está empujando con su pedido de autonomía operativa para sistemas que respondan más rápido que el operador humano. La cuenta industrial llega justo después: Microsoft confesó en su earnings call que US$25.000 millones del capex de US$190.000 millones del año son atribuibles, en línea, a la suba de precios de memoria, y NVIDIA tiene reservada al menos la mitad de la capacidad CoWoS 2026 de TSMC.6 El silicio paga lo que la doctrina ordena.
El Pentágono no eligió un campeón: eligió ocho. Lo que decide hoy quién entra al perímetro clasificado no es la capacidad del modelo, sino la disposición a operar sin condicionamientos.
en redes clasificadas, Anthropic excluida
contable en el reporte trimestral
y empaquetado USA recién en 2028
cede frente al ataque acelerado por IA
Ocho proveedores y una excluida: el portafolio se convierte en perímetro
La ampliación del catálogo del Pentágono tiene tres lecturas que conviene separar. La primera es de procurement puro: las ocho empresas autorizadas operan sobre stacks de hardware deliberadamente diversos —OpenAI sobre Microsoft Azure con GPUs NVIDIA, Google sobre TPU propio, Amazon sobre Trainium, Microsoft sobre su propio Maia 200, NVIDIA sobre su silicio, SpaceX y Reflection AI con infraestructura custom, Oracle como envoltorio de cloud federal—, y la administración explicitó que el objetivo es "evitar lock-in" de un solo vendor.13 La traducción material es que la demanda de cómputo de defensa, hasta ahora minoritaria frente a la hyperscaler, queda distribuida entre seis ecosistemas de silicio distintos, cada uno con sus propios cuellos en HBM, packaging y certificación air-gapped. La defensa deja de ser nicho y se vuelve una capa más de la matriz industrial de la IA, con el matiz no-trivial de que muchas de esas cargas no pueden compartir cloud abierto: requieren on-premises hardenizado, lo que abre demanda para inferencia especializada.
La segunda lectura es la exclusión, y es la que más rinde. Emil Michael lo dijo con todas las letras en CNBC: "Tenemos que asegurarnos de que nuestras redes estén endurecidas porque ese modelo tiene capacidades particulares para encontrar vulnerabilidades cibernéticas".4 Es decir: lo que en la prensa especializada lleva semanas circulando como Mythos —el modelo de ciberseguridad de Anthropic que el NSA estaría evaluando en paralelo— no salva a la empresa, la perjudica. La capacidad ofensiva implícita en un modelo que detecta vulnerabilidades es leída como riesgo de exfiltración, no como activo defensivo, y esa interpretación deja a Anthropic en una posición regulatoria nueva: una empresa estadounidense designada riesgo de cadena por su propio gobierno, mientras seis meses de retiro de servicios federales ordenado por Trump siguen vigentes. La frontera que se establece hoy es clara: las empresas de IA que se nieguen a remover ciertas restricciones para uso militar quedan locked out del mercado de defensa de manera estructural, no episódica.
La tercera lectura es la respuesta editorial de Anthropic, y aquí James Baker es el dato. Como director de Net Assessment durante una década, Baker construyó la mayor parte del marco analítico con el que el propio Pentágono piensa hoy la competición tecnológica con China; al sumarlo como estratega in-house, Anthropic no está montando una operación de lobby sino articulando una contra-oferta intelectual: que la designación "supply chain risk" es analíticamente incorrecta, que la "civilizational challenge" de la IA exige diferenciar entre capacidades ofensivas restringidas y capacidades defensivas indispensables, y que el caso Mythos se puede argumentar como valor diferencial irreemplazable.5 Si la jugada cierra, abre un sendero estrecho pero real: Anthropic queda excluida de redes IL6/IL7 para uso ofensivo o de propósito general, pero recupera contratos federales civiles —agencias de seguridad cibernética, NIST, NVD, infraestructura crítica— donde el modelo se valore por lo mismo por lo que el Pentágono lo descarta. La National Vulnerability Database casi duplicó entradas nuevas este mes; el problema material existe; el operador interesado, también.
Microsoft pone número a la memoria, NVIDIA encadena CoWoS
El segundo hilo del día llega del earnings de los hyperscalers y le da, por fin, magnitud contable a lo que el surcharge de Ubiquiti del 28 de abril dejaba como sospecha. Microsoft cerró el trimestre con capex de US$190.000 millones declarados —los analistas esperaban US$152.000 millones—; Alphabet reporta US$180.000 a 190.000 millones; Meta entre US$125.000 y 145.000 millones; Amazon US$200.000 millones. La suma combinada de los cuatro principales asciende a aproximadamente US$725.000 millones para 2026, un 77% por encima del 2025. El dato que importa es la confesión de Amy Hood, CFO de Microsoft, que atribuyó US$25.000 millones del capex de su compañía directamente a la suba de precios de memoria y chips; Meta elevó su guidance en US$10.000 millones citando textualmente "componentes y memoria". Los data centers de IA absorben aproximadamente el 70% de la producción mundial de memoria.6
Las cifras de TrendForce, citadas en el mismo análisis, completan la cuenta: los precios contractuales de DRAM subieron 95% trimestre contra trimestre en Q1 2026 y se proyectan otro 58% a 63% en Q2; NAND, entre 70% y 75%; toda la producción NAND 2026 ya está comprometida.6 Esto deja al margen un punto técnico no menor: el surcharge memoria que Ubiquiti instaló por línea separada hace una semana y que en su momento parecía gesto excepcional ahora aparece como pasaje obligado del earnings call. La diferencia es que entre vendor de networking y CFO de hyperscaler hay tres órdenes de magnitud de poder de compra, y aún así la curva impacta. La paradoja del ciclo es que el costo de memoria se vuelve estructural en un momento donde la demanda de inferencia —no de entrenamiento— es la que queda atornillada al silicio: aún si los modelos dejaran de crecer mañana, las cargas de inferencia ya contratadas garantizan absorción de DRAM por años.
La pieza complementaria es CoWoS. NVIDIA reservó entre 800.000 y 850.000 obleas CoWoS de TSMC para 2026 —más del 50% del output total de empaquetado avanzado—, dejando a AMD, Broadcom y el programa TPU de Google peleándose el remanente.6 La capacidad CoWoS está oversuscrita hasta al menos mediados de 2026 y los fabs de packaging de TSMC en Phoenix no llegarán a producción de volumen hasta 2028. El cuello refuerza el de la memoria: HBM —el formato más intensivo en empaquetado— necesita CoWoS, y la demanda HBM está empujando los precios DRAM al alza. Cualquier disrupción en CoWoS Taiwán afecta simultáneamente HBM, GPU disponible y la pipeline entera de aceleradores. Y debajo asoman dos cuellos invisibles: los PMICs (gestión de potencia) con lead times de 35 a 40 semanas, agravados por el cierre del fab S7 de Samsung en Corea, y los transformadores grandes para data center con plazos de aproximadamente 128 semanas. La IEA estima que el 20% de los proyectos de data center planeados están en riesgo por demoras de conexión a red. TrendForce ya rebajó el crecimiento de embarques de servidores de 20% a 13% para el año.6 El capex se compromete; el watt y el packaging deciden cuánto de eso se materializa.
TSMC manda cinco fabs N2 a la rampa: la respuesta supply-side
El tercer hilo es la oferta. TSMC anunció esta semana que cinco fabs N2 entran a rampa de producción simultáneamente en 2026, la expansión más agresiva de la compañía en su historia.7 N2 entró en producción masiva en Q4 2025 con una curva de aprendizaje de yield que la empresa describe como superior a la de N3, pese a la transición de FinFET a transistores nanosheet —el cambio de arquitectura más fundamental desde el salto planar-a-FinFET en N16/N14. Si la afirmación se sostiene en producción —y no solo en métricas tempranas—, la implicancia es doble: por un lado, mejor disponibilidad para clientes que no son Apple (NVIDIA, AMD, Qualcomm, Broadcom) durante 2026, no recién en 2027; por el otro, una validación retrospectiva del juicio industrial de que la curva N3 fue inusualmente lenta y no que la transición nanosheet sería intratable.
El nodo siguiente —A16, que combina nanosheet con backside power delivery— "progresa", según la formulación cauta de la propia TSMC, en línea con un calendario de risk production en 2026 y volumen en 2027. BSPDN no es un detalle de marketing: separa la red de entrega de potencia de la capa de ruteo de señal, reduce la caída IR y permite frecuencias más altas a menor consumo. Para aceleradores de IA grandes, donde el cuello térmico ya es restricción operativa, A16 es la inflexión arquitectónica que decide si el sprint de capacidad se traduce o no en productos competitivos. La señal industrial que TSMC manda con el five-fab ramp es directa: la respuesta a la matriz de demanda no es contención, es aceleración. Pero el premio de esa aceleración queda concentrado en la geografía de Hsinchu y Tainan, no en el continente del Department of War que hoy contrata al stack de IA. El gap entre capacidad clasificada de inferencia —que Washington ahora trata como crítica— y empaquetado avanzado —que sigue dependiendo de Taiwán hasta 2028— es la grieta estructural que ningún anuncio de la jornada tapa.
El Army pide autonomía: la doctrina nueva del silicio del borde
El cuarto frente del día se ejecuta en uniforme. El Army Tabletop Exercise (AI TTX) 2.0, organizado por ARCYBER con catorce ejecutivos de empresas tecnológicas y el US Cyber Command, simuló un conflicto cibernético en el Indo-Pacífico hacia 2027 y arribó a una conclusión doctrinal incómoda: la defensa a velocidad humana no es suficiente frente a ataques acelerados por IA.8 El comandante de ARCYBER, teniente general Eubank, lo formuló con la sobriedad que el momento exige: "Decirle a alguien que 'parchee más rápido' es simplemente irrealista". El Army está desarrollando lo que llama "risk acceptance continuum" —un marco que reconoce que los umbrales de riesgo en tiempos de paz y de guerra difieren y que la autonomía de IA debe escalar en consecuencia—, y planea adquisición rápida de herramientas comerciales de IA para dos unidades de ciberdefensa. La conclusión más significativa, sin embargo, fue organizativa, no tecnológica: el cuello no es el modelo, es la doctrina que lo libera.
Lo que esto significa para el silicio se lee en dos direcciones. La primera es demanda de cómputo en el borde: si los sistemas agénticos van a operar en entornos austeros, desconectados o disputados —no solo en data centers cloud—, hay un mercado nuevo y diferenciado para inferencia low-power, radiation-tolerant o con SWaP optimizado. Esa demanda favorece a las firms de silicio especializado en defensa que durante años estuvieron compitiendo a desventaja contra el silicio comercial en performance bruta pero ofrecen ventajas en seguridad, certificación y endurecimiento ambiental. La segunda dirección es exactamente la opuesta: el plan de adquisición rápida con pre-allocated funds —en lugar de los pipelines tradicionales de defense acquisition— implica que las GPUs comerciales de NVIDIA, los TPUs de Google y los aceleradores custom van a fluir directamente a unidades cyber con modificaciones mínimas. La frontera entre demanda comercial y demanda de defensa se desdibuja, expandiendo el mercado addressable de los chipmakers comerciales y reduciendo el espacio diferencial de los vendors defense-only.
El otro vector que conviene tener fichado es la cyberguerra real, no la simulada. El grupo iraní 313 Team —Islamic Cyber Resistance in Iraq— reivindicó un ataque DDoS sostenido sobre infraestructura Canonical/Ubuntu, justo durante el lanzamiento de Ubuntu 26 LTS, usando el servicio "Beamed" capaz de superar 3,5 Tbps; los servicios estuvieron caídos más de veinte horas.9 En paralelo, Checkmarx soportó cuatro ataques de cadena de suministro en cuarenta días, incluyendo el compromiso del GitHub de Trivy y un dump de ransomware de Lapsu$. La doctrina del risk continuum no nace en el vacío: se está escribiendo sobre un fondo donde el ciclo defensivo basado en parches humanos ya no llega a tiempo. La pregunta material para los semiconductores es a qué velocidad la base industrial estadounidense puede surtir aceleradores edge —RF detection ICs, procesadores EW, motores de inferencia hardenizados— sin importar masivamente desde Asia, en un momento donde las propias cifras de capex hyperscaler dejan a la cadena commercial sin elasticidad.
Patrón estructural
El día compone una mutación que vale la pena nombrar con precisión: la institucionalización de la demanda. Cuando el Pentágono firma con ocho proveedores en redes clasificadas y excluye formalmente a una novena, no está adjudicando una licitación: está convirtiendo a la IA frontera en infraestructura militar permanente, insensible al ciclo comercial de hype del que la industria de semis venía oscilando. Cuando Microsoft contabiliza US$25.000 millones de capex como recargo de memoria, no está reportando un hecho coyuntural: está validando que la suba de precios DRAM es estructural por dos años más. Cuando NVIDIA acapara el 50% del CoWoS 2026 y los transformadores tienen lead times de 128 semanas, la frontera competitiva deja de ser quién tiene el chip más rápido y pasa a ser quién tiene capacidad asegurada de empaquetado, energía y cooling. TSMC responde con cinco fabs N2 simultáneos pero la geografía no cambia: Phoenix recién en 2028.
La línea que el caso Anthropic abre, y que Baker entró a articular, no se cierra con una negociación de contrato: es una línea doctrinal sobre qué empresas de IA tienen permitido seguir negándose a remover guardarraíles para uso militar, sin perder el mercado de defensa entero. Esa línea se va a litigar durante años; mientras tanto, los ocho que quedaron del lado correcto reciben demanda institucional sostenida, y los stacks de hardware que ellos eligieron capturan el flujo. El silicio sigue al cliente institucional: TSMC, Samsung, NVIDIA y los hyperscalers con capacidad de servir simultáneamente cargas comerciales y de defensa son los que se llevan el premio de composición. El resto pelea por los márgenes, y el costo de la restricción —memoria, packaging, transformadores— se reparte hacia abajo, hacia los players más chicos y las arquitecturas alternativas que no consigan la slice de CoWoS que necesitan. La cumbre Trump–Xi de mayo va a llegar, otra vez, a una mesa donde la pelea formal —el control del transistor— ya está medio resuelta dentro del propio bando que la convoca: el Department of War no espera la cumbre para asegurar el portafolio; lo cierra antes.
Fuentes
- Pentagon clears 7 tech firms to deploy their AI on its classified networks. Breaking Defense, 1 de mayo de 2026.
- AI on Pentagon classified networks. Defense One, 1 de mayo de 2026.
- Pentagon inks deals with NVIDIA, Microsoft and AWS to deploy AI on classified networks. TechCrunch, 1 de mayo de 2026.
- Mythos complicates Anthropic's US government breakup. The Register, 1 de mayo de 2026.
- Former head of Pentagon's think tank joins Anthropic. Defense One, 1 de mayo de 2026.
- Microsoft attributed $25 billion of its record AI budget to memory chip costs. Tom's Hardware, 1 de mayo de 2026.
- TSMC accelerates 2nm expansion as AI demand surges, targets record five-fab ramp in 2026. TechNode, 29 de abril de 2026.
- Army plans fast follow-up to AI cyber wargame with industry officials. Breaking Defense, 1 de mayo de 2026.
- Canonical under sustained DDoS attack as Ubuntu 26 releases — Iranian group 313 Team claims responsibility. Tom's Hardware, 1 de mayo de 2026.