AI News

효율성의 새로운 시대: 마이크로소프트(Microsoft)의 추론(Inference)을 향한 전략적 전환

인공지능의 경제성을 재편하기 위한 결단력 있는 행보로, Microsoft는 대규모 추론 워크로드를 위해 특별히 설계된 맞춤형 AI 가속기인 Maia 200을 공식 발표했습니다. 이번 주에 발표된 이 칩은 지난 3년 동안 업계를 지배해 온 학습 중심의 초점을 넘어, Microsoft의 수직적 통합 전략에서 중요한 도약을 의미합니다. 1,400억 개의 트랜지스터와 TSMC의 3nm 공정을 기반으로 구축된 특수 아키텍처를 갖춘 Maia 200은 단순한 하드웨어 업그레이드가 아니라, 생성형 AI(Generative AI) 서비스 제공에 드는 막대한 비용을 절감하기 위한 핵심 동력으로 자리매김하고 있습니다.

이번 출시는 더 광범위한 산업계의 변화를 강조합니다. GPT-5.2와 같은 기반 모델이 보편화됨에 따라, 컴퓨팅 부담은 이러한 거대 모델을 학습시키는 것에서 매일 수백만 명의 사용자에게 토큰을 생성하여 "서빙"하는 것으로 이동하고 있습니다. Maia 200은 현대적인 추론에 필요한 저정밀도 수학 연산에 최적화된 10 PetaFLOPS의 연산 성능을 제공함으로써 이 과제를 정면으로 해결합니다. 칩 설계를 내재화함으로써 Microsoft는 장기적인 영업 이익률을 제3자 실리콘 벤더의 가격 결정력으로부터 분리하는 것을 목표로 하고 있으며, 이는 회사의 AI 인프라 로드맵이 성숙 단계에 접어들었음을 시사합니다.

실리콘 내부: 아키텍처 및 사양

Maia 200은 반도체 엔지니어링의 거물입니다. 최첨단 TSMC 3nm 공정 노드에서 제조된 이 칩은 약 1,400억 개의 트랜지스터를 집적하고 있으며, 이는 컴퓨팅 및 메모리 로직의 전례 없는 온다이(on-die) 통합을 가능하게 하는 밀도입니다. 학습과 추론 능력의 균형을 맞춰야 하는 범용 GPU와 달리, Maia 200은 후자(추론)를 위해 철저히 최적화되었습니다.

메모리 계층 구조 및 대역폭

AI 추론에서 가장 중요한 병목 현상 중 하나는 데이터가 컴퓨팅 코어로 이동하는 속도인 메모리 대역폭(Memory bandwidth)입니다. Microsoft는 Maia 200에 216 GB의 HBM3e(고대역폭 메모리)를 탑재하여 무려 7 TB/s의 메모리 대역폭을 제공합니다. 이 거대한 프레임 버퍼를 통해 가장 큰 대규모 언어 모델(Large Language Models, LLMs)조차도 소규모 칩 클러스터의 고속 메모리 내에 완전히 상주할 수 있어 지연 시간을 크게 줄여줍니다.

데이터 이동을 더욱 최소화하기 위해 아키텍처에는 272 MB의 온칩 SRAM이 포함되어 있습니다. 이는 거대한 캐시 역할을 하여 자주 액세스하는 가중치와 활성화 데이터를 프로세싱 코어 가까이에 유지합니다. 메모리 서브시스템은 트랜스포머 기반 모델의 독특한 트래픽 패턴을 처리하도록 설계되어, 컴퓨팅 유닛이 데이터를 기다리며 유휴 상태로 방치되는 경우를 최소화합니다.

컴퓨팅 성능

Maia 200의 주요 수치는 FP4(4비트 부동 소수점) 정밀도에서 10 PetaFLOPS 이상의 성능을 제공하는 능력입니다. FP4 및 FP8과 같은 저정밀도에 집중한 것은 전략적인 설계 선택입니다. 연구에 따르면 추론 작업은 모델 출력의 품질을 저하시키지 않으면서도 더 낮은 정밀도로 실행될 수 있습니다. Microsoft는 FP4에 집중함으로써 기존 FP16 구현을 압도하는 처리량을 달성했습니다.

약간 더 높은 정밀도가 필요한 경우, 이 칩은 FP8에서 약 5 PetaFLOPS를 제공하여 텍스트 생성부터 복잡한 추론 체인에 이르기까지 광범위한 생성 작업을 처리할 수 있는 다재다능함을 갖췄습니다.

경쟁사 벤치마킹

맞춤형 클라우드 실리콘의 치열한 경쟁 환경에서 Microsoft는 Maia 200을 순수 처리량과 효율성 부문의 선두주자로 포지셔닝했습니다. 소프트웨어 생태계의 차이로 인해 NVIDIA의 상용 실리콘과의 직접적인 비교는 복잡하지만, Microsoft는 하이퍼스케일러 경쟁사인 Amazon 및 Google과의 벤치마킹 결과를 제공했습니다.

Microsoft의 기술 공개에 따르면, Maia 200은 주요 클라우드 라이벌들의 최신 제품보다 훨씬 뛰어난 성능을 보입니다. 이 칩의 설계 철학은 Azure AI 서비스의 수익성에 직접적인 영향을 미치는 지표인 "달러당 성능"을 우선시합니다.

표: 하이퍼스케일러 AI 가속기 비교 사양

기능 Microsoft Maia 200 Amazon Trainium3 Google TPU v7
공정 기술 TSMC 3nm N/A N/A
FP4 피크 성능 10 PetaFLOPS ~2.5 PetaFLOPS N/A
FP8 피크 성능 ~5 PetaFLOPS ~2.5 PetaFLOPS ~4.6 PetaFLOPS
HBM 용량 216 GB HBM3e 144 GB 192 GB
메모리 대역폭 7 TB/s 4.9 TB/s 7.4 TB/s
트랜지스터 수 1,400억 개 N/A N/A

데이터에 따르면 Maia 200은 4비트 정밀도 성능에서 결정적인 우위를 점하고 있으며, Amazon Trainium3보다 거의 3배 높은 FP4 처리량을 제공합니다. 이러한 이점은 각 단어를 생성하는 비용이 수익에 직접적인 영향을 미치는 GPT-5.2와 같은 모델을 서빙하는 "토큰 경제학"에서 매우 중요합니다.

클라우드 컴퓨팅에 대한 전략적 시사점

Maia 200의 도입은 단순한 하드웨어 발표가 아닙니다. 이는 AI 분야를 괴롭혀온 공급망 제약으로부터의 독립 선언입니다. 자체 실리콘을 배치함으로써 Microsoft는 프리미엄 가격과 막대한 대기자 명단을 형성해 온 NVIDIA GPU에 대한 의존도를 줄일 수 있게 되었습니다.

추론 비용

클라우드 컴퓨팅(Cloud Computing) 플랫폼 고객들에게 맞춤형 실리콘으로의 전환은 더 안정적이고 잠재적으로 더 낮은 가격을 약속합니다. Microsoft는 Maia 200이 이전 세대인 Maia 100에 비해 30% 더 나은 달러당 성능을 제공한다고 주장합니다. 이러한 효율성 향상은 칩의 특수성에서 비롯됩니다. 이 칩은 범용 GPU에 존재하는 학습이나 그래픽 렌더링에 필요한 기능들에 대한 "실리콘 세금"을 지불하지 않습니다.

인프라 통합

Maia 200은 Microsoft의 기존 Azure 인프라에 원활하게 통합되도록 설계되었습니다. 이 칩은 2.8 TB/s의 양방향 대역폭이 가능한 통합 네트워크 인터페이스 카드(NIC)와 맞춤형 이더넷 기반 네트워크 프로토콜을 사용합니다. 이를 통해 수천 개의 Maia 칩이 낮은 지연 시간으로 통신할 수 있으며, 이는 단일 장치에 담기에 너무 큰 모델을 실행하기 위한 필수 요구 사항입니다.

이 칩들은 Maia 100과 함께 도입된 Microsoft의 "Sidekick" 시스템에 의해 수랭식으로 냉각되는 맞춤형 서버 랙에 보관됩니다. 이 열 관리 솔루션을 통해 칩은 경쟁사 상용 실리콘의 절반 수준인 750W의 열 설계 전력(TDP)으로 작동할 수 있으며, Azure 데이터 센터의 에너지 발자국을 더욱 줄여줍니다.

배포 및 생태계 지원

Microsoft는 이미 아이오와주 디모인에 있는 US Central 데이터 센터 지역에 Maia 200 클러스터를 배치하기 시작했으며, 애리조나주 피닉스의 US West 3 지역으로 확장을 계획하고 있습니다. 이번 배포의 즉각적인 수혜자는 Microsoft의 내부 워크로드와 주요 파트너들입니다.

주요 배포 분야:

  • OpenAI 통합: 이 칩은 새로 언급된 GPT-5.2를 포함하여 OpenAI의 최신 모델에 명시적으로 최적화되어 있습니다. 이를 통해 ChatGPT 및 API 사용자는 Microsoft의 운영 비용을 낮추면서 더 빠른 응답을 받을 수 있습니다.
  • Microsoft 365 Copilot: Copilot을 사용하는 수백만 명의 Office 사용자가 생성하는 막대한 추론 부하가 Maia 200으로 마이그레이션되어, 회사의 GPU 플릿에 가해지는 압력을 완화할 것입니다.
  • 합성 데이터 생성: Microsoft Superintelligence 팀은 이 칩의 높은 처리량을 활용하여 방대한 양의 합성 데이터를 생성하고 있으며, 이는 차세대 모델을 학습시키는 데 사용되어 AI 개발의 선순환 구조를 만들고 있습니다.

개발자를 지원하기 위해 Microsoft는 전체 PyTorch 통합 및 Triton 컴파일러를 포함하는 Maia SDK를 미리보기로 제공하고 있습니다. 이 소프트웨어 스택은 진입 장벽을 낮추도록 설계되어, 고객이 최소한의 코드 변경으로 자신의 모델을 Maia 실리콘으로 포팅할 수 있도록 합니다.

향후 전망

Maia 200의 출시는 AI 산업의 성숙점을 나타냅니다. "비용에 상관없는 학습"의 시대는 효율성, 전력 소비 및 총 소유 비용이 성공의 주요 지표가 되는 "규모의 추론" 시대로 접어들고 있습니다.

특정 추론 벤치마크에서 동급 최고 수준인 3nm, 1,400억 개의 트랜지스터 칩을 성공적으로 인도함으로써, Microsoft는 수직적 통합에 대한 도박이 옳았음을 입증했습니다. **AI 칩(AI Chips)**이 계속해서 전문화됨에 따라, 학습을 위해 설계된 하드웨어와 실행을 위해 설계된 하드웨어 사이의 구분은 더욱 뚜렷해질 것입니다. Azure 고객과 Microsoft 주주 모두에게 Maia 200은 향후 수년 동안 인공지능의 수익성 있는 애플리케이션을 구동할 엔진이 될 것입니다.

추천