AI News

DeepSeek의 Engram: AI 메모리 장벽(Memory Wall)을 허물고 하드웨어 경제학을 재정의하다

급격히 가속화되는 범용 인공지능(Artificial General Intelligence, AGI)을 향한 경쟁 속에서, "메모리 장벽(Memory Wall)"은 단순한 계산 성능보다 더 강력한 적으로 떠올랐습니다. 수년간 업계의 해결책은 무차별 증설이었습니다: 배고픈 GPU에 데이터를 공급하기 위해 값비싼 고대역폭 메모리(High Bandwidth Memory, HBM) 모듈을 계속 쌓는 방식입니다. 그러나 Peking University와 협력해 중국 AI 연구소 DeepSeek가 개발한 획기적인 기법인 "Engram"은 이 패러다임을 뒤흔들 가능성이 있습니다. 이 새로운 아키텍처는 정적 메모리를 활성 계산과 분리하여 희소한 HBM에 대한 의존도를 크게 낮추고, 가격이 폭등한 글로벌 DRAM 위기를 완화할 수 있습니다.

Engram의 등장은 시기적으로 매우 중요합니다. HBM 공급망이 긴장되고 AI 수요로 인해 표준 DRAM 가격이 불과 10주 만에 다섯 배로 오른 상황에서 하드웨어 생태계는 한계점에 다다르고 있습니다. DeepSeek의 접근법은 단순히 코드를 최적화하는 수준을 넘어서, 대형 언어 모델( Large Language Models, LLMs)이 지식을 저장하고 검색하는 방식을 근본적으로 재구성하여 메모리 비용의 부담에 질식하는 업계에 숨돌릴 기회를 제공합니다.

효율성의 아키텍처: Engram의 작동 원리

핵심적으로 Engram 기법은 현대 트랜스포머(Transformer) 모델의 근본적인 비효율성을 해결합니다. 기존의 대형 언어 모델은 사실을 유지하기 위해 대량의 파라미터를 고속 메모리(HBM)에 저장하며, 추론 및 학습 중에 GPU가 이 데이터를 지속적으로 주고받아야 합니다. 이로 인해 성능을 제한하는 병목은 계산 능력이 아니라 메모리 대역폭이 됩니다.

Engram은 이를 회피하기 위해 "정적 지식"—사실, 패턴, 언어 규칙—과 추론에 필요한 "동적 계산"을 분리합니다.

저장과 로직의 분리

시스템은 해시된 N-그램(Hashed N-grams) 메커니즘을 이용한 지식 검색을 활용합니다. 모든 지식을 신경망의 활성 처리 레이어에 직접 임베딩하는 대신, Engram은 정적 정보를 룩업 테이블로 취급합니다.

  • 정적 검색: 모델은 초고속 GPU 메모리를 막히게 하지 않고 별도의 메모리 풀에서 필수 정보를 "조회"할 수 있습니다.
  • 컨텍스트 인식 게이팅: 정보가 검색되면 게이팅 메커니즘이 데이터를 모델의 현재 은닉 상태에 맞게 조정하여 정적 사실이 사용자 질의의 동적 문맥과 일치하도록 합니다.

이 분리는 지식 저장의 무거운 작업을 비싼 HBM에서 표준 DDR RAM이나 CXL(Compute Express Link, CXL)로 연결한 특수 SSD 구성과 같은 더 풍부하고 비용 효율적인 메모리 계층으로 오프로드할 수 있게 합니다.

Table: Comparative Analysis of Traditional Architectures vs. DeepSeek Engram

Feature Traditional MoE / Dense Models DeepSeek Engram Architecture
Memory Dependency High reliance on HBM for all parameters HBM for compute; standard RAM for static knowledge
Retrieval Mechanism Direct parameter activation (compute-heavy) Hashed N-gram lookups (bandwidth-efficient)
Scaling Cost Exponential growth in HBM costs Linear scaling with cheaper memory tiers
Latency Management Synchronous data fetching Supports asynchronous prefetching
Hardware Constraint Bound by GPU VRAM capacity Bound by system-level memory capacity (extensible)

파라미터 예산 최적화

DeepSeek 연구팀은 아키텍처 이론에 머무르지 않고 270억 파라미터 모델에서 Engram을 엄격히 검증했습니다. 그들의 연구에서 핵심 발견은 "U자형 확장 규칙(U-shaped expansion rule)" 이라는 휴리스틱으로, Mixture-of-Experts(MoE) 모듈과 Engram 메모리 모듈 간에 파라미터를 어떻게 배분할지 최적화하는 방법을 제시합니다.

결과는 모델 희소성에 대한 기존 통념에 도전했습니다. DeepSeek는 희소 파라미터 예산의 약 20–25%를 Engram 모듈로 재할당했을 때, 순수 MoE 모델보다 우수한 성능을 보인다는 것을 발견했습니다. 이는 단순히 더 많은 "전문가"를 추가하는 것이 어느 시점부터는 수익 체감에 도달한다는 점을 시사하며, 그 용량을 특화된 메모리 룩업 시스템에 할당하면 다양한 규모에서 안정적인 성능 향상을 유지할 수 있음을 보여줍니다.

네트워크의 하위 레이어에서 정적 지식 재구성을 오프로드함으로써 모델은 어텐션 메커니즘을 전역 문맥과 복잡한 추론에 집중시킬 수 있습니다. 이는 향후 모델들이 Engram 스타일의 검색 시스템에 접근할 수 있다면 훨씬 더 작은 크기와 빠른 속도로도 훨씬 큰 시스템의 "지식"을 유지할 수 있음을 의미합니다.

글로벌 DRAM 위기 완화

Engram의 경제적 효과는 기술적 의미만큼 중요합니다. 주로 SK Hynix, Samsung, Micron이 제조하는 HBM의 전 세계적 부족은 AI 확장의 주요 병목이었습니다. 부족 현상은 소비자 시장으로까지 번져 제조업체들이 고수익 서버 메모리로 생산 라인을 전환하면서 DDR5 가격을 끌어올렸습니다.

Engram은 이 하드웨어 위기에 대한 소프트웨어 기반 해결책을 제공합니다. 절대적인 HBM 요구량을 줄임으로써 DeepSeek는 다음과 같은 하이브리드 하드웨어 구성을 가능하게 합니다:

  1. 고속 HBM은 오직 활성 추론과 행렬 곱셈에 엄격히 예약됩니다.
  2. 표준 DDR5 또는 LPDDR은 정적 Engram 룩업을 처리합니다.
  3. CXL로 연결된 메모리는 지식 베이스를 위한 거대한 확장 가능한 용량을 제공합니다.

이 변화는 특히 중국 AI 분야에 중요합니다. HBM3e와 같은 최신 세대 HBM 칩에 대한 지정학적 무역 제한으로 인해 DeepSeek와 같은 중국 기업들은 하드웨어 제약에 맞서 혁신할 수밖에 없었습니다. Engram은 아키텍처적 창의성이 효과적인 승수 효과를 낼 수 있음을 증명하여 구형 또는 덜 특화된 하드웨어로도 최첨단 클러스터와 경쟁할 수 있게 합니다.

신흥 하드웨어 표준과의 통합

업계는 이미 Engram 철학을 보완하는 솔루션으로 움직이고 있습니다. 기사에서는 Phison의 aiDAPTIV+ 기술과 같은 하드웨어 혁신과 DeepSeek 기법 간의 시너지를 강조합니다. Phison은 대형 모델을 구동하기 위해 엔터프라이즈급 SSD를 시스템 메모리의 확장으로 사용하는 것을 권장해왔습니다.

Engram과 결합하면 이러한 하드웨어 솔루션은 훨씬 더 현실성이 높아집니다. 이론적으로 시스템은 빠른 NAND 플래시(SSD)에 거대한 Engram 데이터베이스를 보관하고, 시스템 RAM을 캐시로 사용하며, GPU 메모리는 계산용으로 유지할 수 있습니다. Engram 검색 메커니즘의 결정론적 특성은 시스템이 다음에 필요한 데이터를 예측해 GPU가 데이터를 기다리기 전에 느린 메모리에서 미리 가져오도록 하는 비동기 프리페칭(asynchronous prefetching) 을 가능하게 합니다.

핵심 하드웨어 시너지:

  • CXL(Compute Express Link): CPU와 GPU가 메모리 풀을 공유할 수 있게 하며, Engram이 필요로 하는 대규모 룩업 테이블에 적합합니다.
  • NAND 기반 확장: SSD는 DRAM 비용의 일부만으로 페타바이트 규모의 정적 N-그램을 저장할 수 있습니다.
  • 다중 GPU 스케일링: Engram은 모델 병렬화와 관련된 복잡한 통신 오버헤드 없이 여러 GPU에 걸쳐 선형 용량 확장을 지원합니다.

효율적인 AI 학습의 미래

DeepSeek가 Engram을 공개한 것은 "더 크면 더 좋다"에서 "더 똑똑하면 더 좋다"로의 전환을 알립니다. AI 모델이 수조 파라미터를 넘어서면서, 모든 파라미터를 고속 저장소에 유지하는 비용은 가장 부유한 테크 대기업을 제외하고는 감당하기 어려워지고 있습니다.

메모리를 계산과 분리된 독립적인 확장 축으로 다룰 수 있음을 증명함으로써 Engram은 대규모 AI 접근성을 민주화합니다. 이는 모델의 추론 능력(IQ)은 실리콘에 의해 결정되지만 지식 기반(백과사전)은 저렴하고 확장 가능한 저장소에 의해 결정되는 미래를 시사합니다.

엔터프라이즈 측면에서는 수백만 달러 규모의 HBM 클러스터 없이도 온프레미스 하드웨어에서 정교하고 지식 기반을 갖춘 에이전트를 운영할 가능성을 의미합니다. 글로벌 공급망 측면에서는 메모리 시장의 변동적인 호황과 불황 주기에서 벗어날 수 있는 잠재적 탈출구를 제공합니다.

업계가 이러한 발견을 소화함에 따라 주목할 점은 PyTorch나 TensorFlow와 같은 주요 프레임워크가 Engram 유사 프리미티브를 얼마나 신속히 통합하는지, 그리고 하드웨어 벤더들이 이 분리 메모리 패러다임에 최적화된 레퍼런스 아키텍처를 얼마나 빨리 출시하는지일 것입니다. 한 가지는 확실합니다: "메모리 장벽(Memory Wall)"은 더 이상 넘을 수 없는 장벽이 아니라 이제 막 잠금이 해제된 문입니다.

추천