AI News

Новая эра эффективности: Стратегический поворот Microsoft к инференсу

В рамках решительного шага по изменению экономики искусственного интеллекта, Microsoft официально представила Maia 200, специально разработанный ИИ-акселератор, созданный специально для крупномасштабных рабочих нагрузок инференса (inference). Объявленный на этой неделе, чип представляет собой значительный скачок вперед в стратегии вертикальной интеграции Microsoft, выходя за рамки ориентации на обучение, которая доминировала в индустрии последние три года. Обладая 140 миллиардами транзисторов и специализированной архитектурой, построенной на 3-нм техпроцессе TSMC, Maia 200 позиционируется не просто как обновление аппаратного обеспечения, но и как критически важный рычаг для снижения растущих затрат на предоставление сервисов генеративного ИИ (Generative AI).

Запуск подчеркивает более широкий отраслевой сдвиг. По мере того как базовые модели, такие как GPT-5.2, становятся повсеместными, вычислительная нагрузка перемещается с обучения этих массивных моделей на их «обслуживание» — генерацию токенов для миллионов пользователей ежедневно. Maia 200 решает эту задачу напрямую, обеспечивая вычислительную производительность 10 Петафлопс (PetaFLOPS), оптимизированную для математических вычислений низкой точности, необходимых для современного инференса (Inference). Создавая дизайн чипов собственными силами, Microsoft стремится отделить свою долгосрочную операционную маржу от ценового влияния сторонних поставщиков полупроводников, что сигнализирует о зрелой фазе в дорожной карте ИИ-инфраструктуры компании.

Внутри кристалла: архитектура и технические характеристики

Maia 200 — это гигант полупроводниковой инженерии. Изготовленный на передовом 3-нм техпроцессе TSMC, чип содержит примерно 140 миллиардов транзисторов — плотность, которая обеспечивает беспрецедентную интеграцию вычислительной логики и логики памяти на кристалле. В отличие от графических процессоров (GPU) общего назначения, которые должны балансировать между возможностями обучения и инференса, Maia 200 жестко оптимизирована для последнего.

Иерархия памяти и пропускная способность

Одним из наиболее критических узких мест в ИИ-инференсе является пропускная способность памяти — скорость, с которой данные могут быть переданы вычислительным ядрам. Microsoft оснастила Maia 200 216 ГБ памяти HBM3e (High Bandwidth Memory), обеспечивающей потрясающую пропускную способность 7 ТБ/с. Этот массивный кадровый буфер позволяет даже самым крупным большим языковым моделям (Large Language Models, LLM) полностью размещаться в высокоскоростной памяти небольшого кластера чипов, что значительно снижает задержку.

Чтобы еще больше минимизировать перемещение данных, архитектура включает 272 МБ встроенной памяти SRAM. Она действует как массивный кэш, удерживая часто используемые веса и данные активации в непосредственной близости от ядер обработки. Подсистема памяти разработана для обработки уникальных паттернов трафика моделей на базе трансформеров (transformer-based models), гарантируя, что вычислительные блоки редко простаивают в ожидании данных.

Вычислительная производительность

Главный показатель Maia 200 — ее способность обеспечивать производительность более 10 Петафлопс при точности FP4 (4-битное число с плавающей запятой). Этот акцент на более низкой точности — в частности, FP4 и FP8 — является стратегическим дизайнерским решением. Исследования показали, что задачи инференса могут выполняться с более низкой точностью без ухудшения качества выходных данных модели. Ставя на FP4, Microsoft достигает пропускной способности, которая превосходит традиционные реализации FP16.

Для нужд чуть более высокой точности чип обеспечивает примерно 5 Петафлопс при FP8, что делает его достаточно универсальным для решения широкого спектра генеративных задач — от генерации текста до сложных цепочек рассуждений.

Сравнение с конкурентами

В условиях высокой конкуренции на рынке специализированных облачных чипов Microsoft позиционирует Maia 200 как лидера по чистой пропускной способности и эффективности. Хотя прямое сравнение с коммерческими чипами NVIDIA затруднено из-за различных программных экосистем, Microsoft предоставила результаты тестов по сравнению с решениями своих коллег по гиперскейлерам — Amazon и Google.

Согласно техническому раскрытию Microsoft, Maia 200 значительно превосходит последние предложения своих основных облачных конкурентов. Философия дизайна чипа отдает приоритет «производительности на доллар» — метрике, которая напрямую влияет на прибыльность ИИ-сервисов Azure.

Таблица: Сравнительные характеристики ИИ-акселераторов гиперскейлеров

Характеристика Microsoft Maia 200 Amazon Trainium3 Google TPU v7
Техпроцесс TSMC 3nm N/A N/A
Пиковая производительность FP4 10 PetaFLOPS ~2.5 PetaFLOPS N/A
Пиковая производительность FP8 ~5 PetaFLOPS ~2.5 PetaFLOPS ~4.6 PetaFLOPS
Объем HBM 216 GB HBM3e 144 GB 192 GB
Пропускная способность памяти 7 TB/s 4.9 TB/s 7.4 TB/s
Количество транзисторов 140 миллиардов N/A N/A

Данные указывают на то, что Maia 200 обладает решающим преимуществом в производительности при 4-битной точности, предлагая почти в 3 раза большую пропускную способность FP4, чем Amazon Trainium3. Это преимущество имеет решающее значение для «экономики токенов» при обслуживании моделей, таких как GPT-5.2, где стоимость генерации каждого слова напрямую влияет на чистую прибыль.

Стратегические последствия для облачных вычислений

Появление Maia 200 — это не просто аппаратный анонс; это декларация независимости от ограничений цепочки поставок, которые преследовали сектор ИИ. Развертывая собственные чипы, Microsoft снижает свою зависимость от NVIDIA, чьи GPU требовали премиальных цен и огромных очередей ожидания.

Стоимость инференса

Для клиентов платформ облачных вычислений (Cloud Computing) переход на специализированные чипы обещает более стабильное и потенциально более низкое ценообразование. Microsoft заявляет, что Maia 200 обеспечивает на 30% лучшую производительность на доллар по сравнению с предыдущим поколением Maia 100. Этот выигрыш в эффективности обусловлен специализированной природой чипа; он не несет в себе «налога на кремний» в виде функций, необходимых для обучения или рендеринга графики, которые присутствуют в GPU общего назначения.

Интеграция в инфраструктуру

Maia 200 разработана для бесшовной интеграции в существующую инфраструктуру Azure от Microsoft. Она использует кастомный сетевой протокол на базе Ethernet с интегрированной сетевой картой (NIC), способной обеспечить двунаправленную пропускную способность 2,8 ТБ/с. Это позволяет тысячам чипов Maia взаимодействовать с низкой задержкой, что необходимо для запуска моделей, которые слишком велики, чтобы поместиться на одном устройстве.

Чипы размещаются в кастомных серверных стойках с жидкостным охлаждением системы «Sidekick», которая была представлена вместе с Maia 100. Это решение для терморегулирования позволяет чипам работать при расчетной тепловой мощности (TDP) в 750 Вт — вдвое меньше, чем у некоторых конкурирующих коммерческих чипов, что еще больше снижает энергопотребление дата-центров Azure.

Развертывание и поддержка экосистемы

Microsoft уже начала развертывание кластеров Maia 200 в своем регионе дата-центров US Central в Де-Мойне, штат Айова, а расширение планируется в регионе US West 3 в Финиксе, штат Аризона. Непосредственными бенефициарами этого развертывания являются внутренние рабочие нагрузки Microsoft и ключевые партнеры.

Ключевые области развертывания:

  • Интеграция с OpenAI: Чип специально оптимизирован для последних моделей OpenAI, включая недавно упомянутую GPT-5.2. Это гарантирует, что пользователи ChatGPT и API будут получать более быстрые ответы при более низких операционных затратах для Microsoft.
  • Microsoft 365 Copilot: Огромная нагрузка инференса, создаваемая миллионами пользователей Office, обращающихся к Copilot, будет перенесена на Maia 200, что снизит нагрузку на парк GPU компании.
  • Генерация синтетических данных: Команда Microsoft Superintelligence использует высокую пропускную способность чипа для генерации огромных объемов синтетических данных, которые затем используются для обучения следующего поколения моделей, создавая эффективный цикл разработки ИИ.

Для поддержки разработчиков Microsoft представляет превью Maia SDK, который включает полную интеграцию с PyTorch и компилятор Triton. Этот программный стек разработан для снижения барьера входа, позволяя клиентам переносить свои модели на чипы Maia с минимальными изменениями кода.

Перспективы на будущее

Запуск Maia 200 знаменует собой точку зрелости для индустрии ИИ. Эпоха «обучения любой ценой» уступает место эпохе «масштабного инференса», где эффективность, энергопотребление и общая стоимость владения являются основными показателями успеха.

Успешно выпустив 3-нм чип со 140 миллиардами транзисторов, который лидирует в своем классе в конкретных тестах инференса, Microsoft подтвердила свою ставку на вертикальную интеграцию. По мере того как ИИ-чипы (AI Chips) продолжают специализироваться, различие между оборудованием, предназначенным для обучения, и оборудованием, предназначенным для исполнения, будет становиться только четче. Как для клиентов Azure, так и для акционеров Microsoft, Maia 200 представляет собой двигатель, который обеспечит прибыльное применение искусственного интеллекта в ближайшие годы.

Рекомендуемые