El recargo de la memoria, el portafolio del Pentágono y el teléfono que OpenAI fabrica en China
El recargo de la memoria, el portafolio del Pentágono y el teléfono que OpenAI fabrica en China
28 de abril de 2026
El 24 de abril, Ubiquiti implementó un "Memory Surcharge" de hasta 5,8% sobre cada producto vendido en su tienda oficial: un switch enterprise de 48 puertos PoE de US$3.499 carga US$206 extra; un access point WiFi 7 de US$499 suma US$58.1 Es el primer vendor de networking que traslada el costo de la DRAM al cliente final como línea de recargo explícita, en vez de absorberlo en el precio base o disimularlo en un aumento general. El mecanismo, una vez instituido, no se elimina cuando los costos se normalizan —se ajusta la tasa—, y el mensaje que manda es contundente: la crisis de memoria que arrancó en la puja por HBM entre hyperscalers ya no es un problema de data center; es una factura que llega al switch de oficina.
Cuatro días después, Google firmó un contrato clasificado con el Pentágono que permite el uso de sus modelos de AI para "cualquier propósito gubernamental legítimo", sumándose a OpenAI y xAI como proveedores de AI frontera en redes militares clasificadas.23 Más de 600 empleados de Google firmaron una carta pidiendo al CEO Sundar Pichai que rechace el acuerdo, calificando las salvaguardas propuestas como "inaplicables".4 Y en otro frente, el analista Ming-Chi Kuo reportó que OpenAI está codesarrollando procesadores con Qualcomm y MediaTek para un teléfono AI-first lanzado en 2028, fabricado por la empresa china Luxshare, proyectando entre 300 y 400 millones de unidades anuales.567 Tres movimientos que comparten un patrón: la restricción en una capa de la pila de cómputo se propaga como onda expansiva a todas las demás, reconfigurando quién fabrica, quién compra y quién paga la cuenta.
La industria de semiconductores ya no mide su fragilidad en nodos: la mide en cuántas capas simultáneas puede absorber una restricción antes de que el sistema entero se reconfigure.
que la memoria es un costo visible
a la DRAM escasa
clasificadas: silicio distribuido
Washington prohibe exportar
El muro de la memoria tiene número de línea
El análisis de EE Times no deja ambigüedad: la DRAM se convirtió en "uno de los recursos más restringidos en la pila de AI".8 A medida que Samsung, SK Hynix y Micron priorizan DDR5 y HBM para la producción de aceleradores de AI, los módulos de alta capacidad que usa el resto de la infraestructura —servidores cloud, equipamiento de networking, sistemas enterprise— enfrentan los aumentos más pronunciados y los plazos de entrega más largos. Los precios de módulos de alta capacidad se multiplicaron por tres o cuatro respecto al año anterior, e incluso los hyperscalers reportan cumplimiento parcial de pedidos. La DRAM de baja capacidad (1–2 GB), que sirve a un segmento de mercado distinto con otra elasticidad de demanda, se mantiene relativamente estable. Eso crea un mercado bifurcado: la DRAM adyacente a AI (HBM, DDR5 de alta capacidad) se raciona y encarece; la DRAM commodity está disponible pero insuficiente para workloads modernos.
El paso de Ubiquiti no es un síntoma menor de un vendor menor. Es la primera confirmación documentada de que el encarecimiento de la memoria atraviesa la pared del data center y golpea al equipamiento de networking enterprise —un segmento que mueve volúmenes de unidades comparables o superiores a los de los servidores—.1 La empresa dice estar "absorbiendo una porción" de los costos volátiles de memoria y almacenamiento, lo que implica que el costo real que llega desde la cadena de suministro es mayor que el 5,8% que traslada al cliente. Si otros vendors de networking e infraestructura siguen el modelo de Ubiquiti —y la lógica del mercado dice que lo harán, porque el mecanismo una vez abierto es difícil de cerrar—, el surcharge de memoria se normaliza como práctica industrial del mismo modo que el baggage fee se normalizó en las aerolíneas después de 2008.
La respuesta arquitectónica ya es visible. El mismo análisis de EE Times documenta un giro hacia lo que describe como un "enfoque híbrido": AI local en el edge para tareas de alta frecuencia dentro de envases de memoria de 1–2 GB, reservando la nube para operaciones más intensivas pero menos frecuentes.8 Small language models y modelos compactos de visión-lenguaje son los habilitadores técnicos, y la economía es el motor: los sistemas diseñados para operar dentro de 1–2 GB evitan por completo los precios inflados de la DRAM de alta capacidad. Eso tiene implicaciones directas para las empresas de silicio de edge AI —Qualcomm Snapdragon, MediaTek Kompanio, aceleradores dedicados de Hailo o Kneron— que se vuelven estructuralmente más valiosos a medida que el costo de las arquitecturas cloud-dependent y memory-heavy sube. La crisis de DRAM está subsidiando efectivamente el mercado de chips de edge AI.
En paralelo, un reporte de SemiAnalysis señala que existe un único material de thin-film requerido por cada chip de AI del planeta —GPUs, TPUs, ASICs custom—, con el 98% de la producción global controlada por una sola empresa química japonesa, sin alternativas listas para producción, fully booked hasta 2027 y con lead times superiores a seis meses.9 Según el reporte, NVIDIA estaría financiando la mitad del capex para expandir los fabs del proveedor. Si se confirma, la cadena de la DRAM tendría un gemelo invisible: un cuello de botella de materiales que no aparece en ningún balance de capacidad de foundry pero que determina cuántos aceleradores pueden fabricarse independientemente de cuánta oblea haya disponible.
Tenstorrent responde con SRAM donde otros ruegan por HBM
Contra ese telón de memoria restringida, Tenstorrent presentó Galaxy Blackhole: un servidor de formato 6U con 32 chips Blackhole que entrega 23 PFLOPS en Block FP8, 6,2 GB de SRAM on-chip con un ancho de banda de 2,9 PB/s, 1 TB de DRAM por servidor a 16 TB/s, y scale-out por Ethernet estándar con hasta 56 puertos de 800G.10 El benchmark más relevante es la performance sobre DeepSeek-671B: 255 tokens por segundo por usuario con menos de 4 segundos de time-to-first-token, ventana de contexto de 128K y batch sizes entre 8 y 64. El CEO Jim Keller lo formuló así: "Podemos hacer tanto prefill como decode en la misma computadora", rechazando explícitamente la tendencia de desagregación de inferencia que NVIDIA y Groq vienen promoviendo con racks híbridos separados.
La tesis de Tenstorrent es que la SRAM abundante on-chip puede reducir la dependencia de la DRAM externa —la misma dirección que la adopción de HBM, pero ejecutada a través de SRAM y software en vez de packaging avanzado de Samsung o SK Hynix—.10 Los primeros clientes confirman que no es un demo de laboratorio: Equinix deployó 16 servidores en su Distributed AI Hub de Ashburn, Virginia; Turiam lo opera en India; Cirrascale y varias instituciones financieras lo usan para trading de baja latencia. El factor decisivo no es si Galaxy Blackhole supera a NVIDIA en performance bruta —no la supera en training— sino si ofrece una economía de inferencia suficientemente competitiva con un modelo de deployment más simple, sin la complejidad de infraestructura multi-vendor que la desagregación exige.
La ironía del timing es precisa: en la misma jornada donde Ubiquiti confirma que la DRAM se volvió un costo que se carga por línea separada, Tenstorrent presenta una arquitectura que dice poder operar con menos de esa DRAM. No es una coincidencia; es la respuesta de mercado a un precio de insumo que ya no se puede ignorar.
El portafolio que distribuye la demanda de silicio
El contrato clasificado de Google con el Pentágono, leído junto con los acuerdos previos de OpenAI y xAI para redes clasificadas, revela una estrategia de procurement que es deliberadamente un portafolio: tres vendors de AI frontera, cada uno corriendo sobre un stack de hardware distinto.23 OpenAI opera sobre Microsoft Azure con GPUs de NVIDIA; Google usa sus propios TPUs; xAI tiene su cluster Colossus custom. Esa diversificación distribuye la demanda de cómputo de defensa a través de múltiples ecosistemas de hardware, reduciendo la vulnerabilidad del Pentágono ante una disrupción en la cadena de un solo chipmaker. Si el suministro de HBM de NVIDIA constriñe la capacidad de OpenAI, el Pentágono puede redirigir carga a las capacidades basadas en TPU de Google. Si los TPUs están limitados, xAI provee capacidad marginal. El portafolio, aplicado al silicio, crea resiliencia en la capa de cómputo.
La carta de más de 600 empleados de Google oponiéndose al acuerdo militar señala que la fricción cultural dentro de las empresas de tecnología estadounidenses sobre el trabajo militar con AI sigue sin resolverse.4 Esa fricción tiene implicaciones de semiconductores: si las grandes empresas de AI enfrentan presión interna que limita el trabajo de defensa, la dependencia del Pentágono de firms más pequeñas y especializadas crece, y esas firms corren sobre hardware distinto —a menudo más especializado y de menor volumen—. Las restricciones culturales del pipeline Silicon Valley-militar-AI están moldeando indirectamente los patrones de demanda de silicio.
Ese efecto se conecta con otro hilo que viene de la semana pasada: el blacklisting de Anthropic por parte del Pentágono, cubierto en ediciones anteriores, aceleró el giro hacia firms de AI de defensa más pequeñas —Smack Technologies, EdgeRunner AI—.2 El ingreso de Google no revierte esa dinámica; la complementa. El resultado es una base de proveedores más amplia y más diversificada en términos de hardware, lo que tiene consecuencias directas sobre qué chips se fabrican, en qué volumen y bajo qué contratos de suministro.
En el otro lado del Pacífico, un análisis de War on the Rocks del fellow de Jamestown Foundation Christopher Nye —pseudónimo— detalla que las purgas militares de Xi Jinping afectaron "más de la mitad de los 176 cargos de liderazgo superior" del EPL, creando un "clima de sobrevivencia" donde los oficiales retroceden ante la iniciativa.11 Los ejercicios conjuntos con Rusia cayeron de 14 en 2024 a 6 en 2025. Los ejercicios sobre Taiwan tardan entre 12 y 19 días en pasar de directiva política a deployment, contra 3–4 días en 2024. Para la estrategia de semiconductores, la consecuencia es que la disfunción organizativa limita el deployment militar de AI independientemente de la capacidad de hardware: oficiales que no se animan a tomar riesgos no van a advocate por la adopción de tecnologías nuevas, incluyendo sistemas habilitados por AI. Incluso si los chips Ascend de Huawei alcanzan paridad técnica con NVIDIA en algún punto, la capacidad organizativa para integrar esos chips en sistemas militares efectivos puede ser el cuello de botella determinante.
El teléfono que OpenAI fabrica donde Washington prohibe exportar
El plan de OpenAI de lanzar un teléfono AI-first en 2028, con procesadores codesarrollados con Qualcomm y MediaTek y fabricado por la china Luxshare, representa una paradoja geopolítica que resume la contradicción central de la competencia tecnológica contemporánea: la empresa de AI líder de Estados Unidos construye un producto de hardware de consumo que depende de manufactura china en un momento en que el gobierno estadounidense intensifica los controles de exportación de semiconductores contra China.567
La lógica estratégica es clara. Ming-Chi Kuo la identifica con precisión: el teléfono es "el único dispositivo que captura el estado completo en tiempo real del usuario", lo que lo convierte en la plataforma óptima para inferencia continua de agentes de AI.5 Controlando hardware y software —el enfoque "whole widget" de Apple—, OpenAI puede crear un foso de datos que las empresas de software puro no pueden replicar. Las 300 a 400 millones de unidades anuales proyectadas convertirían este proyecto en un volumen comparable a los shipments globales de Samsung. OpenAI adquirió io Products de Jony Ive por US$6.400 millones pero pivotó del concepto de companion device al teléfono completo, reconociendo que el teléfono es el form factor que domina la relación usuario-dispositivo.
La vulnerabilidad es la manufactura. Luxshare, si bien es un supplier importante de Apple, es una empresa china sujeta a la jurisdicción de la RPC. En un escenario de contingencia sobre Taiwan, la capacidad de manufactura de Luxshare podría ser disrumpida por sanciones estadounidenses, controles de exportación chinos o interrupciones físicas de la cadena de suministro. Un teléfono de OpenAI fabricado en China se convierte en una palanca que Beijing podría accionar —ya sea a través de disrupciones de producción, requisitos de transferencia tecnológica o demandas de acceso a datos—.5 Los procesadores custom codesarrollados con Qualcomm y MediaTek serán fabricados en TSMC, lo que agrega otra capa de exposición a Taiwan. La cadena completa del dispositivo —diseño en Estados Unidos, chips fabricados en Taiwan, ensamblaje en China— es un mapa de las tres tensiones geopolíticas que definen la industria de semiconductores en 2026.
El contexto amplía la paradoja. OpenAI terminó su partnership exclusiva de cloud con Microsoft, liberándose para negociar con Amazon y otros competitors; según MIT Technology Review, la empresa estaría perdiendo targets clave de crecimiento de cara a su IPO.2 La entrada a hardware no es un capricho: es una búsqueda de revenue streams alternativos y un moat competitivo que el modelo de software-only no puede construir. Pero el timing es incómodo: la Casa Blanca acusa a China de campañas "deliberate, industrial-scale" para robar modelos de AI estadounidenses, un lenguaje que puede presagiar nuevas acciones de entity list o deemed-export contra firms chinas de AI.2 La misma administración que intensifica la presión sobre China es la que tiene que decidir si un teléfono fabricado por Luxshare para una empresa de AI estadounidense crea un riesgo de seguridad nacional.
El patrón que ordena la jornada es una cascada de restricciones que se refuerza entre capas. La DRAM que falta en el data center se convierte en un recargo de 5,8% en el switch de oficina, que fuerza un rediseño arquitectónico hacia edge AI dentro de envases de 1–2 GB, que subsidia el mercado de chips de inferencia periférica, que abre espacio para alternativas como Tenstorrent que resuelven memoria con SRAM en vez de rogarle a la cadena HBM. Simultáneamente, el Pentágono distribuye su demanda de silicio entre tres vendors frontera con stacks de hardware distintos, y OpenAI verticaliza hacia el hardware endpoint fabricando donde la geopolítica dice que no debería. Cada restricción en una capa reconfigura la economía de todas las demás. Las entidades que definan la próxima fase no son las que tienen el mejor nodo: son las que pueden navegar este entorno de restricciones en cascada —diseñando alrededor de los límites de memoria, distribuyendo cómputo entre vendors y jurisdicciones, y construyendo stacks hardware-software resilientes a la disrupción geopolítica—. El resto son ajustes de precio.
Fuentes
- Vendor slaps extra memory fee on each tech purchase amid global chip crunch. Tom's Hardware, abril 2026.
- The Download: Musk and Altman's legal showdown, and AI's profit problem. MIT Technology Review, 28 abril 2026.
- Google AI Deal with the Pentagon. The New York Times, 28 abril 2026.
- Google allows Pentagon to use its AI in classified military work. The Straits Times, 28 abril 2026.
- OpenAI Prepares AI-First Smartphone for 2028. EE Times, abril 2026.
- Qualcomm executive signaled an AI smartphone weeks before report of OpenAI partnership. East Bay Times, 28 abril 2026.
- Qualcomm teams with OpenAI, MediaTek on AI chip. Mobile World Live, abril 2026.
- What the DRAM Crunch Teaches Us About System Design. EE Times, abril 2026.
- SemiAnalysis: single thin-film material monopoly signal. X/@SemiAnalysis_, abril 2026.
- Tenstorrent Unveils Next-Gen Servers for Fast Tokens, No Disaggregation Needed. EE Times, abril 2026.
- The Mountaintop Mirage: Why Xi's Military Purges Cannot Produce the Force He Wants. War on the Rocks / Jamestown Foundation, 28 abril 2026.