AI News

DeepSeek’s Engram: Rompiendo la barrera de memoria y redefiniendo la economía del hardware

En la carrera que se acelera rápidamente hacia la Inteligencia Artificial General (AGI), la barrera de memoria (Memory Wall) se ha convertido en una adversaria más formidable que la potencia computacional bruta. Durante años, la solución de la industria ha sido la fuerza bruta: apilar costosos módulos de Memoria de Alto Ancho de Banda (High Bandwidth Memory, HBM) para alimentar GPUs hambrientas. Sin embargo, una técnica innovadora del laboratorio chino de IA DeepSeek, desarrollada en colaboración con Peking University, promete trastocar este paradigma. Conocida como Engram, esta nueva arquitectura desacopla la memoria estática de la computación activa, potencialmente reduciendo drásticamente la dependencia de la escasa HBM y aliviando la crisis global de DRAM (Dynamic Random-Access Memory) que ha provocado un aumento vertiginoso de los precios.

La introducción de Engram llega en un momento crítico. Con las cadenas de suministro de HBM tensionadas y los precios de la DRAM estándar aumentando cinco veces en solo diez semanas debido a la demanda impulsada por la IA, el ecosistema de hardware se aproxima a un punto de quiebre. El enfoque de DeepSeek no se limita a optimizar código; replantea fundamentalmente cómo los Modelos de Lenguaje a Gran Escala (Large Language Models, LLMs) almacenan y recuperan conocimiento, ofreciendo una vía de salvación a una industria que se asfixia bajo el peso de los costes de memoria.

La arquitectura de la eficiencia: Cómo funciona Engram

En su núcleo, la técnica Engram aborda una ineficiencia fundamental en los modelos Transformer (Transformer models) modernos: la conflación del procesamiento computacional con el almacenamiento de conocimiento. Los LLMs tradicionales dependen de recuentos masivos de parámetros almacenados en memoria de alta velocidad (HBM) para retener hechos, lo que obliga a la GPU a transferir constantemente estos datos durante la inferencia y el entrenamiento. Esto crea un cuello de botella en el que el ancho de banda de memoria, más que la capacidad de cómputo, limita el rendimiento.

Engram evita esto separando el "conocimiento estático" —hechos, patrones y reglas lingüísticas— de la "computación dinámica" requerida para razonar.

Desacoplar almacenamiento y lógica

El sistema utiliza un mecanismo que involucra N-gramas hasheados para realizar la recuperación de conocimiento. En lugar de incrustar todo el conocimiento directamente en las capas de procesamiento activas de la red neuronal, Engram trata la información estática como una tabla de búsqueda.

  • Recuperación estática: El modelo puede "consultar" información esencial desde un grupo de memoria distinto sin saturar la memoria ultra-rápida de la GPU.
  • Enclavamiento consciente del contexto: Una vez recuperada la información, un mecanismo de gating ajusta los datos para alinearlos con el estado oculto actual del modelo, asegurando que los hechos estáticos se integren en el contexto dinámico de la consulta del usuario.

Esta separación permite descargar la mayor parte del almacenamiento de conocimiento desde la costosa HBM hacia niveles de memoria más abundantes y rentables, como la RAM DDR estándar o incluso configuraciones especializadas de SSD mediante CXL (Compute Express Link).

Table: Comparative Analysis of Traditional Architectures vs. DeepSeek Engram

Feature Traditional MoE / Dense Models DeepSeek Engram Architecture
Memory Dependency High reliance on HBM for all parameters HBM for compute; standard RAM for static knowledge
Retrieval Mechanism Direct parameter activation (compute-heavy) Hashed N-gram lookups (bandwidth-efficient)
Scaling Cost Exponential growth in HBM costs Linear scaling with cheaper memory tiers
Latency Management Synchronous data fetching Supports asynchronous prefetching
Hardware Constraint Bound by GPU VRAM capacity Bound by system-level memory capacity (extensible)

Optimizando el presupuesto de parámetros

El equipo de investigación de DeepSeek no se detuvo en la teoría arquitectónica; validaron Engram mediante pruebas rigurosas en un modelo de 27 mil millones de parámetros. Un hallazgo clave de su investigación es la “regla de expansión en forma de U”, una heurística desarrollada para optimizar cómo se asignan los parámetros entre los módulos Mixture-of-Experts (MoE) y los módulos de memoria Engram.

Los resultados desafiaron la sabiduría predominante sobre la esparsidad de modelos. DeepSeek descubrió que reasignar aproximadamente el 20–25% del presupuesto de parámetros esparcidos al módulo Engram proporcionaba un rendimiento superior en comparación con modelos MoE puros. Esto sugiere que simplemente añadir más "experts" (submódulos de la red neuronal) alcanza un punto de rendimiento decreciente, mientras que dedicar esa capacidad a un sistema de búsqueda de memoria especializado mantiene ganancias de rendimiento estables a diferentes escalas.

Al descargar la reconstrucción de conocimiento estático desde las capas inferiores de la red, el modelo libera sus mecanismos de atención para centrarse en el contexto global y el razonamiento complejo. Esto implica que los futuros modelos podrían ser más pequeños y rápidos, manteniendo el "conocimiento" de sistemas mucho mayores, siempre que tengan acceso a un sistema de recuperación al estilo Engram.

Aliviando la crisis global de DRAM

Las implicaciones económicas de Engram son tan significativas como las técnicas. La escasez global de HBM —fabricada principalmente por SK Hynix, Samsung y Micron— ha sido un gran cuello de botella para la escalada de la IA. La escasez es tan aguda que ha afectado al mercado de consumo, elevando los precios de DDR5 a medida que los fabricantes reorientan líneas de producción hacia la memoria de servidor de mayor margen.

Engram ofrece una solución impulsada por software a esta crisis de hardware. Al reducir el requisito absoluto de HBM, DeepSeek allana el camino para configuraciones híbridas de hardware donde:

  1. HBM de alta velocidad se reserva estrictamente para el razonamiento activo y la multiplicación de matrices.
  2. DDR5 estándar o LPDDR gestionan las consultas estáticas de Engram.
  3. Memoria conectada vía CXL proporciona capacidad masiva y escalable para bases de conocimiento.

Este cambio es particularmente vital para el sector de IA chino. Con las restricciones geopolíticas al comercio que limitan el acceso a la última generación de chips HBM (como HBM3e), empresas chinas como DeepSeek se han visto forzadas a innovar frente a las limitaciones de hardware. Engram demuestra que la ingeniosidad arquitectónica puede actuar efectivamente como multiplicador de fuerza, permitiendo que hardware más antiguo o menos especializado compita con clústeres de vanguardia.

Integración con estándares emergentes de hardware

La industria ya se está moviendo hacia soluciones que complementan la filosofía Engram. El artículo destaca la sinergia entre la técnica de DeepSeek y las innovaciones de hardware como la tecnología aiDAPTIV+ de Phison. Phison ha abogado por el uso de SSD empresariales como extensión de la memoria del sistema para ejecutar modelos grandes.

Cuando se combina con Engram, estas soluciones de hardware se vuelven significativamente más viables. Teóricamente, un sistema podría alojar una enorme base de datos Engram en NAND flash rápido (SSDs), usando la RAM del sistema como caché y la memoria de la GPU para el cómputo. La naturaleza determinista del mecanismo de recuperación de Engram permite el prefetching asincrónico, lo que significa que el sistema puede predecir qué datos necesitará a continuación y traerlos desde la memoria más lenta antes de que la GPU quede inactiva esperando.

Sinergias clave de hardware:

  • CXL (Compute Express Link): Permite que CPUs y GPUs compartan pools de memoria, perfecto para las enormes tablas de búsqueda que requiere Engram.
  • Expansión basada en NAND: Los SSDs pueden almacenar petabytes de N-gramas estáticos a una fracción del coste de la DRAM.
  • Escalado multi-GPU: Engram soporta escalado de capacidad lineal entre múltiples GPUs sin la compleja sobrecarga de comunicación que suele asociarse con el paralelismo de modelo.

El futuro del entrenamiento de IA eficiente

El lanzamiento de Engram por parte de DeepSeek señala un cambio de "más grande es mejor" a "más inteligente es mejor". A medida que los modelos de IA superan la marca de un billón de parámetros, el coste de mantener todos esos parámetros en almacenamiento caliente se vuelve prohibitivo salvo para los gigantes tecnológicos más ricos.

Al demostrar que la memoria puede tratarse como un eje independiente de escalado —separado del cómputo— Engram democratiza el acceso a la IA a gran escala. Sugiere un futuro donde la capacidad de razonamiento de un modelo (IQ) está determinada por su silicio, pero su base de conocimientos (Enciclopedia) está determinada por almacenamiento barato y ampliable.

Para la empresa, esto significa la posibilidad de ejecutar agentes sofisticados y con conocimiento en hardware on-premise sin necesitar un clúster HBM multimillonario. Para la cadena de suministro global, ofrece una posible salida de las volátiles oscilaciones del mercado de memoria.

A medida que la industria digiere estos hallazgos, la atención se dirigirá a qué tan rápido marcos principales como PyTorch y TensorFlow pueden integrar primitivas al estilo Engram, y si los proveedores de hardware publicarán arquitecturas de referencia optimizadas para este paradigma de memoria dividida. Una cosa es segura: la barrera de memoria (Memory Wall) ya no es una barrera infranqueable, sino una puerta que acaba de ser desbloqueada.

Destacados