
La creciente demanda de inteligencia artificial choca con una cadena de suministro de hardware frágil, creando una "tormenta perfecta" que amenaza con descarrilar las hojas de ruta de IA empresariales en los próximos años. A medida que las organizaciones se apresuran a construir capacidades de IA locales, se enfrentan a una grave escasez global de componentes de almacenamiento esenciales—específicamente DRAM y NAND Flash. Con precios proyectados para dispararse más de un 50% y plazos de entrega que se extienden más allá de un año para hardware crítico, los CIOs y líderes de TI se ven obligados a replantear sus estrategias de infraestructura.
La escasez, impulsada por el apetito sin precedentes de los hyperscalers y la explosión en la generación de datos, supone un reinicio fundamental en el equilibrio entre oferta y demanda. Para la audiencia de Creati.ai, comprender las sutilezas de esta crisis de hardware es crítico, ya que afecta directamente la viabilidad y el calendario de implementación de la IA generativa (Generative AI) y los Modelos de Lenguaje a Gran Escala (Large Language Models, LLMs) dentro de los centros de datos empresariales.
Parece que la era del almacenamiento barato y abundante está llegando a su fin, sustituida por un período de extrema volatilidad y escalada de costes. Analistas de la industria y proveedores de hardware están dando la voz de alarma sobre aumentos de precio que no son meramente inflacionarios sino estructurales.
Según análisis recientes de mercado, se espera que el precio de DRAM y almacenamiento NAND aumente de forma significativa a lo largo de 2026. Brad Gastwirth, responsable global de investigación en Circular Technology, describe la situación como un "reinicio fundamental". Hablando sobre la dinámica actual del mercado, señaló que la memoria y el almacenamiento han pasado de ser componentes secundarios a convertirse en restricciones primarias a nivel de rendimiento del sistema. La implicación es clara: el hardware necesario para ejecutar cargas de trabajo de IA se está convirtiendo en el cuello de botella.
El impacto financiero en las empresas es contundente. Scott Tease, vicepresidente de IA y computación de alto rendimiento en Lenovo, ofreció un pronóstico sombrío, sugiriendo que los precios de ciertos componentes podrían cuadruplicarse en comparación con los niveles de principios de 2025. Destacó la trayectoria del DIMM de 64 gigabytes—un bloque de construcción estándar de memoria para servidores, portátiles y estaciones de trabajo. Mientras que anteriormente se adquiría en el rango bajo de los $200, se proyecta que el coste de este mismo componente se acerque a los $800 en los próximos meses.
Un aumento de precio tan dramático inevitablemente afecta a todo el ecosistema de hardware. Ya sea que una empresa esté adquiriendo nuevos servidores preparados para IA o actualizando la infraestructura de centros de datos existente, la lista de materiales está a punto de explotar. TrendForce, un proveedor líder de inteligencia de mercado, corrobora estos temores, prediciendo que los precios de DRAM aumentarán entre un 55% y un 60% en el primer trimestre de 2026 en comparación con el año anterior, con los precios de NAND Flash siguiendo una trayectoria ascendente similar del 33% al 38%.
Más allá del precio, la pura indisponibilidad de hardware plantea una amenaza aún más existencial para los plazos de los proyectos. La cadena de suministro está actualmente muy sesgada a favor de los actores más grandes—los hyperscalers (como AWS, Google y Microsoft) y los principales OEM—que han asegurado contratos de suministro a largo plazo, algunos extendiéndose hasta 2027.
Este efecto de "exclusión" deja a empresas medianas y a jugadores más pequeños luchando por las sobras en el mercado spot. El director de producto de Western Digital, Ahmed Shihab, confirmó la tensión en toda la industria, señalando que el suministro seguirá estando limitado bien entrado el próximo año. El impulsor, como era de esperar, es la IA. Ya sea para entrenar modelos fundacionales masivos o para ejecutar inferencias a escala, las cargas de trabajo de IA requieren enormes cantidades de almacenamiento de alta velocidad. La capacidad promedio de los discos enviados está aumentando, pero el número total de unidades disponibles sigue siendo insuficiente para satisfacer el voraz apetito del mercado.
Los fabricantes dudan en sobreexpandir la capacidad de producción, marcados por ciclos anteriores de auge y caída donde invirtieron miles de millones en plantas de fabricación solo para enfrentar un excedente del mercado cuando las instalaciones entraron en funcionamiento. Construir una planta de semiconductores es una tarea intensiva en capital, con costes superiores a $50 mil millones y que lleva más de 15 meses. En consecuencia, los proveedores están priorizando la demanda de servidores de IA de alto margen, reasignando líneas de producción fuera de productos de memoria tradicionales. Este cambio crea escasez en otras áreas, como la NAND Flash MLC (Multi-Level Cell), que se usa ampliamente en equipos industriales y de redes. Con Samsung esperado para terminar la producción de MLC NAND a mediados de 2026, se prevé que la capacidad para esta tecnología específica caiga un 42% solo este año.
Mientras la industria lidia con la escasez de almacenamiento tradicional de alto rendimiento, se está produciendo un cambio tecnológico para mitigar la crisis de capacidad. Hay una adopción acelerada de SSDs Quad-Level Cell (QLC). La tecnología QLC permite una mayor densidad de almacenamiento al guardar cuatro bits de datos por celda, en comparación con los tres bits de TLC (Triple-Level Cell) o los dos de MLC.
TrendForce predice que las unidades QLC pronto representarán el 30% del mercado de SSD empresariales. Este cambio está impulsado por la necesidad; QLC permite mayores capacidades en una huella física más pequeña, lo cual es crucial para centros de datos que se quedan sin espacio en bastidores y energía. Sin embargo, QLC conlleva compensaciones, principalmente en términos de resistencia y velocidades de escritura en comparación con sus predecesores.
Para los arquitectos de TI empresarial, esta transición requiere un cambio en la estrategia de gestión de datos. Tom Coughlin, miembro del IEEE y presidente de Coughlin Associates, sugiere que las organizaciones deben adaptarse a las características de QLC. Al consolidar datos y minimizar el número de operaciones de escritura, las empresas pueden prolongar la vida útil de los componentes QLC. Esto se alinea con una tendencia más amplia de optimizar niveles de almacenamiento—mantener los datos "calientes" en unidades NVMe de alto rendimiento y escasas, mientras que se trasladan los datos "templados" o "fríos" a niveles QLC de alta densidad.
Ante costes por las nubes y plazos de entrega que pueden exceder un año para SSDs de alta capacidad, los CIOs deben adoptar estrategias defensivas para mantener vivas sus iniciativas de IA. La estrategia de "comprar todo lo que puedas necesitar" ya no es viable para la mayoría de las organizaciones debido a los costes prohibitivos.
Comparación de perspectivas del mercado
La siguiente tabla describe el drástico cambio en el panorama de almacenamiento que los líderes empresariales deben navegar:
| Metric | Pre-Shortage Era (2024-Early 2025) | Current Crisis & Future Outlook (2026+) |
|---|---|---|
| Price Trend | Stable / Declining per GB | Skyrocketing (>50% to 400% increase) |
| Lead Time | Weeks | Months to >1 Year for High-Cap SSDs |
| Technology Focus | TLC / MLC NAND | QLC NAND / HBM (High Bandwidth Memory) |
| Supply Access | Open Spot Market | Restricted (Hyperscalers locked contracts to 2027) |
| Primary Constraint | Budget | Component Availability & Production Capacity |
Los expertos recomiendan algunos pasos pragmáticos para navegar este aprieto:
La escasez se ve agravada por la propia naturaleza de la ciencia de datos: cuanto más almacenamiento está disponible, más se consume. Falko Kuester, profesor de ingeniería en UC San Diego, destacó este fenómeno con el proyecto Open Heritage 3D. A medida que recopilan escaneos de alta fidelidad de sitios históricos—LIDAR, nubes de puntos e imágenes de alta resolución—su huella de datos se expande exponencialmente. Esperan alcanzar un petabyte de datos en 18 meses.
Este escenario se está dando en cada empresa que invierte en IA. Se crean conjuntos de datos de "ground truth", que luego se duplican para entrenamiento, validación y pruebas. Posteriormente se anotan y aumentan, multiplicando el requisito de almacenamiento en cada paso. A medida que aumenta la resolución y los modelos se vuelven más complejos, la "naturaleza de la bestia" es consumir cada byte de almacenamiento disponible.
La escasez global de almacenamiento no es un paréntesis temporal, sino un obstáculo estructural significativo para la industria de la IA. A medida que avance 2026, la capacidad para asegurar hardware se convertirá en un factor diferenciador clave. Las empresas que no planifiquen plazos de entrega extendidos y presupuestos inflados corren el riesgo de ver sus proyectos de IA estancados no por falta de algoritmos o talento, sino por la simple incapacidad de almacenar los datos que los alimentan. Para la comunidad de Creati.ai, el mensaje es claro: la capa física de infraestructura de IA exige atención inmediata y estratégica.