◆ SEMICONDUCTORES · 01 MAY 2026 · PM

NVIDIA absorbe el CoWoS, el DRAM sube 95% y el capex choca contra la cadena física

CATEGORÍASemiconductores
FECHA01 MAY 2026
EDICIÓN2026-05-01-PM
AUTORWintermute Intelligence
▲ PENTÁGONOocho firmas AI autorizadas en redes clasificadas IL6/IL7, Anthropic excluida// ▲ CAPexUS$725B combinados por hyperscalers en 2026, +77% interanual// ◆ CoWoSNVIDIA reserva 800K-850K obleas, más de la mitad del output de TSMC// ◆ DRAMprecios contrato +95% trimestral; Microsoft atribuye US$25B a inflación de chips
$725Bcapex combinado de Google, Amazon,
Microsoft y Meta para 2026
$25Bde inflación de memoria y chips
dentro del capex de Microsoft
850Kobleas CoWoS reservadas por
NVIDIA en TSMC para 2026
128 semde lead time para transformadores
de potencia de data center

NVIDIA absorbe el CoWoS, el DRAM sube 95% y el capex choca contra la cadena física

1 de mayo de 2026

Lo que cambió esta semana no es la cantidad de dinero sobre la mesa: es la distancia entre ese dinero y la cadena que debería convertirlo en hardware. El capex combinado de Google, Amazon, Microsoft y Meta para 2026 cerró en US$725.000 millones —77% más que 2025—, pero Microsoft reveló que US$25.000 millones de sus US$190.000 millones presupuestados corresponden exclusivamente a inflación de memoria y chips, no a capacidad adicional.1 El DRAM contractual trepó 95% trimestral en el primer trimestre; el NAND tiene toda la producción 2026 comprometida; los data centers de IA consumen ya el 70% de la producción mundial de memoria. No es un problema de demanda: es un problema de que la demanda se institucionalizó más rápido de lo que la cadena física puede responder.

El mismo día, el Pentágono formalizó el acceso de ocho compañías de IA a redes clasificadas Impact Level 6 y 7 —las que manejan información Secret y Top Secret—, con una arquitectura deliberadamente multi-vendor para evitar dependencia de un solo proveedor: OpenAI sobre NVIDIA GPUs vía Azure, Google sobre TPUs, Amazon sobre Trainium, Microsoft sobre Maia 200, NVIDIA sobre su propio hardware, SpaceX y Reflection sobre infraestructura custom, y Oracle sumada horas después.23 Anthropic quedó explícitamente excluida, calificada por el CTO del Pentágono Emil Michael como "riesgo de cadena de suministro".4 La decisión enciende ocho ecosistemas de silicio distintos que van a competir —y sumar— demanda sobre la misma base de TSMC, Samsung y SK Hynix que ya no da abasto para los hyperscalers civiles.

Cuando ocho ecosistemas de silicio militar se encienden sobre la misma cadena que no alcanza a servir a los hyperscalers, el dinero deja de ser solución y se convierte en síntoma del desequilibrio.
◆ MAPA DEL DÍAdemanda · costo · packaging · potencia
PENTÁGONO / 8 VENDORSocho stacks de silicio distintos
operando en redes clasificadas
MICROSOFT / DRAMUS$25B de inflación de memoria
en un solo capex anual
NVIDIA / CoWoSmás de la mitad del empaquetado
avanzado de TSMC comprometido
PMIC / TRANSFORMER35-40 y 128 semanas de lead time
en componentes de potencia

Ocho stacks de silicio entran al bunker

La decisión del Pentágono no es un experimento piloto. Las designaciones IL6/IL7 significan que los modelos operarán en redes que manejan datos clasificados hasta Top Secret, no en entornos de investigación no clasificada; más de 1,3 millones de personal del Departamento de Defensa ya usaron GenAI.mil, generando decenas de millones de prompts en cinco meses.3 Google desplegó Gemini 3.1 Pro en la plataforma a fines de abril. Lo que se anunció el 1 de mayo es la institucionalización: la IA de frontera pasa de capacidad experimental a infraestructura permanente del aparato militar estadounidense.

La consecuencia para la cadena de semiconductores es que la demanda de cómputo de defensa deja de ser un nicho con presupuesto menor y se convierte en un flujo sostenido que compite directamente con los hyperscalers por la misma capacidad de TSMC. Cada uno de los ocho vendors opera sobre hardware distinto: GPUs NVIDIA para OpenAI, TPUs para Google, Trainium para Amazon —el Trainium3 en 3nm con 144 GB de HBM3E está "casi totalmente suscrito"—, Maia 200 para Microsoft, aceleradores custom para SpaceX y Reflection.1 La diversificación es deliberada —el Pentágono citó explícitamente "prevenir vendor lock-in"—, pero distribuye sin reducir: ocho stacks de silicio suman más demanda total que uno o dos, y todos terminan encargando obleas a los mismos proveedores.

La exclusión de Anthropic agrega una dimensión que va más allá del procurement. El CTO del Pentágono fue preciso en CNBC: "Con Anthropic, son un riesgo de cadena de suministro. Tenemos que asegurarnos de que nuestras redes estén endurecidas porque ese modelo tiene capacidades particulares para encontrar vulnerabilidades de ciberseguridad."4 La justificación convierte una decisión comercial —Anthropic se negó a levantar restricciones de uso militar— en una designación de seguridad nacional. El precedente es claro: la empresa de IA que no acepte uso sin restricciones en defensa queda fuera del mercado militar. La respuesta de Anthropic llegó el mismo día: James Baker, exdirector de la Oficina de Evaluación Neta del Pentágono —el think tank interno del Departamento de Defensa entre 2015 y 2025—, se incorporó como estratega residente, en una movida que no apunta al ciclo de contratos actual sino al marco de política que determinará quién puede competir en el siguiente.5 Baker no es tecnólogo; es un estratega que enmarca la adaptación a la IA como un desafío "civilizacional". Anthropic está apostando a que Mythos —su modelo de ciberseguridad que la NSA estaría evaluando— puede generar una excepción: una empresa puede ser riesgo de cadena de suministro para IA ofensiva y proveedor indispensable para IA defensiva al mismo tiempo.

La memoria se come el capex y el CoWoS se llena

El segundo hilo del día es el más cuantificado hasta ahora en la crisis de componentes. Las ganancias del primer trimestre de los hyperscalers dejaron números que no admiten eufemismo: Microsoft presupuestó US$190.000 millones de capex —los analistas esperaban US$152.000 millones—, de los cuales su CFO Amy Hood atribuyó US$25.000 millones directamente al aumento de precios de memoria y chips.1 Meta elevó su guía en US$10.000 millones citando "mayores precios de componentes, particularmente memoria". Alphabet planea US$180-190.000 millones. Amazon, US$200.000 millones. En conjunto: US$725.000 millones, un 77% más que los US$410.000 millones de 2025.

La composición del gasto importa más que el volumen. Los precios contractuales de DRAM subieron 95% en el primer trimestre de 2026 respecto al cuarto trimestre de 2025; TrendForce proyecta entre 58 y 63% adicional para el segundo trimestre; el NAND trepó 70-75% y toda la producción 2026 está comprometida.1 El server DRAM y los módulos DDR5 RDIMM de alta densidad absorben la mayor parte de la capacidad de Samsung, SK Hynix y Micron. Cuando Microsoft dice que US$25.000 millones son inflación de componentes y no capacidad nueva, está diciendo que el costo del silicio se está comiendo el presupuesto que antes se destinaba a construir más infraestructura. La misma señal que Ubiquiti emitió la semana pasada con su recargo del 5,8% sobre equipos de red, confirmada ahora a escala de centenares de miles de millones en el CFO level.

El cuello de CoWoS es el complemento estructural. NVIDIA reservó entre 800.000 y 850.000 obleas de CoWoS en TSMC para 2026, más de la mitad del output total de empaquetado avanzado, dejando a AMD, Broadcom y el programa TPU de Google compitiendo por el remanente hasta al menos mediados de 2026.1 Las fabs de empaquetado de TSMC en Phoenix, Arizona, no alcanzarán volumen de producción hasta 2028. El CoWoS interactúa con la crisis de memoria en un bucle reforzante: la HBM —el formato de memoria más intensivo en packaging— requiere CoWoS, y la demanda de HBM está empujando la escalada del DRAM. Cualquier disrupción en las operaciones de CoWoS de TSMC —ya sea por competencia del cluster Yongin de Corea, por el cierre del fab S7 de Samsung que tighten los PMICs, o por el riesgo geopolítico de Taiwán— constreñiría simultáneamente el suministro de HBM, la disponibilidad de GPUs y el pipeline de aceleradores de IA completo.

Los cuellos menos visibles son tan binding como los más nombrados. Los lead times de PMIC —power management ICs— están en 35-40 semanas, acelerados en parte por el cierre del fab S7 de ocho pulgadas de Samsung; los transformadores de potencia grandes tienen lead times de aproximadamente 128 semanas —dos años y medio para el componente que conecta un data center a la red—. La IEA estima que alrededor del 20% de los proyectos globales de data centers enfrentan riesgo de demora por problemas de red eléctrica.1 TrendForce bajó su proyección de crecimiento de envíos de servidores de 20% a 13%: no importa cuánto capex comprometan los hyperscalers si no pueden físicamente ensamblar y conectar los servidores completos. El ratio CPU-a-GPU en data centers se desplazó de 1:8 a 1:4; Intel reportó miles de millones en demanda insatisfecha de Xeon; el CEO de Arm, Rene Haas, afirmó que las cargas agenticas requieren aproximadamente 120 millones de núcleos de CPU por gigavatio de capacidad —cuatro veces más que los clusters de entrenamiento tradicionales—.1 La inferencia agéntica no solo demanda más GPUs: demanda más CPUs, más memoria, más empaquetado, más potencia eléctrica —más de todo, simultáneamente, en una cadena que ya no alcanza a entregar lo que se le pide.

El Ejército le da autonomía al agente y el silicio busca el borde

El tercer vector del día se mueve en una dirección que amplifica la demanda en vez de concentrarla. El ejercicio de simulación AI TTX 2.0 del Ejército de Estados Unidos —14 ejecutivos de tecnología más el US Cyber Command— concluyó que la defensa cibernética a velocidad humana es insuficiente frente a ataques adaptados por IA, y que el agentic AI debe recibir autoridad de respuesta autónoma durante conflictos.6 El comandante de ARCYBER, teniente general Eubank, lo formuló así: "Decirle a alguien 'parcheá más rápido' simplemente no es realista." El Ejército está desarrollando un "continuo de aceptación de riesgo" que escala la autonomía de la IA según el contexto —tiempo de paz versus tiempo de guerra—, y planea adquirir rápidamente herramientas comerciales de IA para dos unidades de defensa cibernética.

La consecuencia para semiconductores corre en dos direcciones. Primero, genera demanda de hardware de inferencia desplegado en el borde táctico —no en data centers cloud, sino en ambientes austeros, desconectados o con redes disputadas—. Eso es un segmento de mercado distinto al de la inferencia hyperscale: favorece procesadores de baja potencia, tolerantes a radiación y optimizados para SWaP (Size, Weight and Power). Segundo, la decisión de comprar herramientas comerciales en vez de desarrollar soluciones militares propias difumina la línea entre demanda civil y demanda de defensa: el silicio comercial —GPUs NVIDIA, TPUs de Google, aceleradores custom— fluye directamente hacia unidades de ciberdefensa con mínima modificación, incrementando la demanda total direccionable de los fabricantes de chips comerciales sin que aparezca como línea presupuestaria separada.

El movimiento se completa con una señal del mercado privado. Coatue —uno de los mayores fondos de venture y hedge— lanzó "Next Frontier" para comprar tierra cerca de fuentes de energía y desarrollar data centers, en joint venture con Fluidstack —la firma detrás del deal de data center de US$50.000 millones con Anthropic—.7 Más de 1.500 nuevos data centers están en construcción en Estados Unidos según Pew Research. La tierra con acceso a potencia ya es un activo escaso, y el intermediario financiero que controle esa tierra controla también quién construye y qué silicio se enchufa. La cadena de la IA dejó de ser horizontal —de la arena al server— y empezó a ser vertical: la tierra, el watt, el chip y el modelo se están integrando bajo los mismos actores.

Patrón estructural

El día compone un desplazamiento que la industria de semiconductores había anticipado en teoría pero no había cuantificado en la práctica: la institucionalización de la demanda de IA —ocho vendors militares más US$725.000 millones de capex hyperscale— superó la capacidad de la cadena física para responder. El cuello ya no es financiero. Es material: CoWoS sobresuscrito hasta 2028, memoria con toda la producción comprometida, PMICs a 40 semanas, transformadores a 128 semanas, TrendForce corrigiendo a la baja el crecimiento de servidores porque no se pueden armar. El dinero se comprometió; el hardware no se puede entregar a la velocidad del check. Los actores que ganan en este ciclo son los que controlan la interfaz entre el dinero y la física —TSMC con su capacidad de packaging, Samsung y SK Hynix con su output de memoria, NVIDIA con su asignación de CoWoS— y los que pierden son los que creyeron que el capex era la solución. La próxima fase de la competencia por el silicio no se va a decidir en la earnings call: se va a decidir en la fab, en la planta eléctrica y en el cronograma del transformador que todavía no se fabricó.

Fuentes

  1. Skyrocketing component prices push Big Tech capex to record $725 billion. Tom's Hardware, 1 de mayo de 2026.
  2. Pentagon inks deals with Nvidia, Microsoft, and AWS to deploy AI on classified networks. TechCrunch, 1 de mayo de 2026.
  3. Pentagon clears 8 tech firms to deploy their AI on its classified networks. Breaking Defense, 1 de mayo de 2026.
  4. Mythos complicates the breakup, says Pentagon CTO, but Anthropic is still barred. The Register, 1 de mayo de 2026.
  5. Former head of 'Pentagon's think tank' joins Anthropic. Defense One, 1 de mayo de 2026.
  6. Army plans fast follow-up to AI cyber wargame with industry officials. Breaking Defense, mayo de 2026.
  7. Coatue has a plan to buy up land for data centers, possibly for Anthropic. TechCrunch, 1 de mayo de 2026.