
По мере того как начинается первый крупный сезон отчетности 2026 года, крупнейшие технологические компании мира сигнализируют о беспрецедентном ускорении расходов на искусственный интеллект (AI). Рыночный консенсус теперь прогнозирует, что крупные технологические «гипермасштабные компании (hyperscalers)» — во главе с Microsoft, Meta, Alphabet и Amazon — совместно увеличат капитальные расходы (Capex) до более чем $470 billion в этом году, что значительно превышает оценку в $350 billion для 2025 года. Этот всплеск уже не ограничивается только обучением крупных моделей; он отмечает стратегический поворот в сторону развертывания инфраструктуры, необходимой для их масштабной эксплуатации.
Нарратив 2026 года сместился с «построения мозга» к «включению мозга в работу». С отчетами о доходах, которые ожидаются на этой неделе от Apple, Meta, Microsoft и Tesla, инвесторы готовятся к обновленным прогнозам, отражающим эту масштабную модернизацию инфраструктуры. Хотя Уолл-стрит по-прежнему осторожна в вопросе окупаемости инвестиций (ROI), технологические гиганты предлагают ясный ответ: спрос на вывод (inference) — фактическое использование моделей ИИ — опережает предложение, что требует нового поколения эффективного специализированного кремния.
Всего за несколько часов до объявления финансовых результатов Microsoft продемонстрировала свою агрессивную позицию, представив Maia 200, акселератор ИИ второго поколения, разработанный специально для рабочих нагрузок вывода. Временной выбор преднамерен и направлен на то, чтобы заверить инвесторов, что компания решает проблему стоимости на токен, которая преследует коммерческое развертывание ИИ.
Построенный на передовом 3-нм техпроцессе TSMC, Maia 200 представляет собой значительный шаг по сравнению со своим предшественником. В то время как Maia 100 был универсальным чипом для обучения и вывода, серия 200 максимально ориентирована на эффективный запуск моделей. В ней используется 140 миллиардов транзисторов и установлено 216GB HBM3e памяти, обеспечивающей огромную пропускную способность, необходимую для обслуживания больших языковых моделей (LLMs) с низкой задержкой.
Ключевые спецификации нового кремния раскрывают стратегию Microsoft по снижению зависимости от сторонних поставщиков GPU для рутинных задач:
Microsoft Maia 200 Specifications vs. Industry Standard
| Feature | Maia 200 (2026) | Improvement / Metric |
|---|---|---|
| Process Technology | TSMC 3nm | High density & efficiency |
| Transistor Count | 140 Billion | Complex logic handling |
| Memory Configuration | 216GB HBM3e | High bandwidth for LLMs |
| Primary Use Case | Inference | Optimization for run-time |
| Performance Claim | 30% better Perf/$ | Vs. current fleet hardware |
| Deployment Locations | US Central (Iowa), US West 3 | Strategic low-latency hubs |
Microsoft утверждает, что чип обеспечивает на 30% лучшую производительность на доллар по сравнению с текущим поколением коммерческого кремния, развернутого в Azure. Оптимизируя работу под 4-битную точность (FP4) и 8-битную точность (FP8) — форматы данных, достаточные для вывода, но требующие меньше вычислительной мощности, чем обучение — Microsoft стремится резко снизить стоимость обслуживания запросов для Copilot и моделей OpenAI GPT-5.2.
Взрыв капитальных расходов обусловлен фундаментальным изменением в жизненном цикле ИИ. В последние три года расходы в основном приходились на кластеры для обучения — массивные суперкомпьютеры, предназначенные для обучения моделей. В 2026 году фокус смещается на кластеры вывода, которые нужны для ответов на пользовательские запросы, генерации изображений и обработки данных в реальном времени.
Аналитики отрасли отмечают, что обучение происходит один раз (или периодически), тогда как вывод происходит каждый раз, когда пользователь взаимодействует с продуктом на базе ИИ. По мере того как пользовательские базы таких продуктов, как ChatGPT, Meta AI и Apple Intelligence, вырастают до миллиардов, стоимость вычислений масштабируется линейно.
Goldman Sachs пересмотрела свои собственные оценки в сторону увеличения, предполагая, что цифра в $470 billion может быть консервативной, с позитивным сценарием, достигающим $527 billion, если внедрение генеративного ИИ (generative AI) ускорится в корпоративном секторе. Эти расходы касаются не только чипов; они включают полный пересмотр архитектуры центров обработки данных, включая системы жидкостного охлаждения, соглашения о поставках ядерной энергии и пользовательское сетевое оборудование, разработанное для обработки плотного трафика рабочих нагрузок вывода.
По мере того как отчеты о доходах поступают, каждый гипермасштабер сталкивается с уникальным давлением, чтобы оправдать эти расходы.
Несмотря на технические достижения, настроение на Уолл-стрит представляет собой смесь восхищения и тревоги. Огромный масштаб капитальных расходов, необходимых для конкуренции в гонке вооружений ИИ, сжимает маржу свободного денежного потока. Инвесторов уже не устраивают расплывчатые обещания «будущих возможностей»; они требуют явных доказательств того, что эти миллиарды приносят дополнительный доход уже сегодня.
Появление ориентированных на эффективность чипов, таких как Maia 200, является прямым ответом на эту тревогу. Снижая эксплуатационные расходы на ИИ, гипермасштабные компании надеются улучшить экономику единицы своей продукции, превратив высокодоходные ИИ-сервисы в высокомаржинальные.
По мере развития 2026 года разделение между «обладателями ИИ» и «необладателями ИИ» будет углубляться. Те, у кого есть финансовые ресурсы для поддержания инфраструктурного развертывания стоимостью полтриллиона долларов, определят следующее десятилетие вычислений, в то время как более мелкие игроки могут оказаться вытесненными из аппаратной игры. Пока что кошельки открыты, и кремний горяч.