AI News

Ставка в $470 миллиардов: гипермасштабные компании (hyperscalers) удваивают ставку на вывод

По мере того как начинается первый крупный сезон отчетности 2026 года, крупнейшие технологические компании мира сигнализируют о беспрецедентном ускорении расходов на искусственный интеллект (AI). Рыночный консенсус теперь прогнозирует, что крупные технологические «гипермасштабные компании (hyperscalers)» — во главе с Microsoft, Meta, Alphabet и Amazon — совместно увеличат капитальные расходы (Capex) до более чем $470 billion в этом году, что значительно превышает оценку в $350 billion для 2025 года. Этот всплеск уже не ограничивается только обучением крупных моделей; он отмечает стратегический поворот в сторону развертывания инфраструктуры, необходимой для их масштабной эксплуатации.

Нарратив 2026 года сместился с «построения мозга» к «включению мозга в работу». С отчетами о доходах, которые ожидаются на этой неделе от Apple, Meta, Microsoft и Tesla, инвесторы готовятся к обновленным прогнозам, отражающим эту масштабную модернизацию инфраструктуры. Хотя Уолл-стрит по-прежнему осторожна в вопросе окупаемости инвестиций (ROI), технологические гиганты предлагают ясный ответ: спрос на вывод (inference) — фактическое использование моделей ИИ — опережает предложение, что требует нового поколения эффективного специализированного кремния.

Microsoft ведет наступление с Maia 200

Всего за несколько часов до объявления финансовых результатов Microsoft продемонстрировала свою агрессивную позицию, представив Maia 200, акселератор ИИ второго поколения, разработанный специально для рабочих нагрузок вывода. Временной выбор преднамерен и направлен на то, чтобы заверить инвесторов, что компания решает проблему стоимости на токен, которая преследует коммерческое развертывание ИИ.

Построенный на передовом 3-нм техпроцессе TSMC, Maia 200 представляет собой значительный шаг по сравнению со своим предшественником. В то время как Maia 100 был универсальным чипом для обучения и вывода, серия 200 максимально ориентирована на эффективный запуск моделей. В ней используется 140 миллиардов транзисторов и установлено 216GB HBM3e памяти, обеспечивающей огромную пропускную способность, необходимую для обслуживания больших языковых моделей (LLMs) с низкой задержкой.

Ключевые спецификации нового кремния раскрывают стратегию Microsoft по снижению зависимости от сторонних поставщиков GPU для рутинных задач:

Microsoft Maia 200 Specifications vs. Industry Standard

Feature Maia 200 (2026) Improvement / Metric
Process Technology TSMC 3nm High density & efficiency
Transistor Count 140 Billion Complex logic handling
Memory Configuration 216GB HBM3e High bandwidth for LLMs
Primary Use Case Inference Optimization for run-time
Performance Claim 30% better Perf/$ Vs. current fleet hardware
Deployment Locations US Central (Iowa), US West 3 Strategic low-latency hubs

Microsoft утверждает, что чип обеспечивает на 30% лучшую производительность на доллар по сравнению с текущим поколением коммерческого кремния, развернутого в Azure. Оптимизируя работу под 4-битную точность (FP4) и 8-битную точность (FP8) — форматы данных, достаточные для вывода, но требующие меньше вычислительной мощности, чем обучение — Microsoft стремится резко снизить стоимость обслуживания запросов для Copilot и моделей OpenAI GPT-5.2.

Великое смещение в сторону вывода

Взрыв капитальных расходов обусловлен фундаментальным изменением в жизненном цикле ИИ. В последние три года расходы в основном приходились на кластеры для обучения — массивные суперкомпьютеры, предназначенные для обучения моделей. В 2026 году фокус смещается на кластеры вывода, которые нужны для ответов на пользовательские запросы, генерации изображений и обработки данных в реальном времени.

Аналитики отрасли отмечают, что обучение происходит один раз (или периодически), тогда как вывод происходит каждый раз, когда пользователь взаимодействует с продуктом на базе ИИ. По мере того как пользовательские базы таких продуктов, как ChatGPT, Meta AI и Apple Intelligence, вырастают до миллиардов, стоимость вычислений масштабируется линейно.

Goldman Sachs пересмотрела свои собственные оценки в сторону увеличения, предполагая, что цифра в $470 billion может быть консервативной, с позитивным сценарием, достигающим $527 billion, если внедрение генеративного ИИ (generative AI) ускорится в корпоративном секторе. Эти расходы касаются не только чипов; они включают полный пересмотр архитектуры центров обработки данных, включая системы жидкостного охлаждения, соглашения о поставках ядерной энергии и пользовательское сетевое оборудование, разработанное для обработки плотного трафика рабочих нагрузок вывода.

Неделя отчетности: на что смотреть

По мере того как отчеты о доходах поступают, каждый гипермасштабер сталкивается с уникальным давлением, чтобы оправдать эти расходы.

  • Meta Platforms: Ожидается, что генеральный директор Марк Цукерберг сообщит инвесторам обновленную дорожную карту инфраструктуры для Llama 4 и далее. Стратегия Meta сильно полагается на модели с открытыми весами, что требует огромных вычислительных мощностей для поддержания всеобщего доступа. Аналитики будут искать детали о том, как Meta планирует монетизировать эту огромную инфраструктуру, возможно, через продвинутые рекламные инструменты или корпоративные лицензии.
  • Apple: С полным разворачиванием функций Apple Intelligence на линейке iPhone 17 Apple вступает в серверную борьбу за ИИ. В отличие от своих коллег, Apple исторически полагалась на обработку на устройстве, но сложность новых агентов требует частного облачного вычисления. Ожидается, что расходы здесь резко вырастут по мере глобального развёртывания собственных серверов на базе фирменного кремния.
  • Tesla: Непредсказуемый участник группы, расходы Tesla разделяются между обучением её систем Full Self-Driving (FSD) и созданием суперкомпьютера Dojo. Рынок внимательно следит за тем, сможет ли инвестиция Tesla в инфраструктуру ИИ (AI infrastructure) наконец разблокировать более высокие маржи в её автомобильном и робототехническом подразделениях.

Настроение инвесторов: ультиматум по ROI

Несмотря на технические достижения, настроение на Уолл-стрит представляет собой смесь восхищения и тревоги. Огромный масштаб капитальных расходов, необходимых для конкуренции в гонке вооружений ИИ, сжимает маржу свободного денежного потока. Инвесторов уже не устраивают расплывчатые обещания «будущих возможностей»; они требуют явных доказательств того, что эти миллиарды приносят дополнительный доход уже сегодня.

Появление ориентированных на эффективность чипов, таких как Maia 200, является прямым ответом на эту тревогу. Снижая эксплуатационные расходы на ИИ, гипермасштабные компании надеются улучшить экономику единицы своей продукции, превратив высокодоходные ИИ-сервисы в высокомаржинальные.

По мере развития 2026 года разделение между «обладателями ИИ» и «необладателями ИИ» будет углубляться. Те, у кого есть финансовые ресурсы для поддержания инфраструктурного развертывания стоимостью полтриллиона долларов, определят следующее десятилетие вычислений, в то время как более мелкие игроки могут оказаться вытесненными из аппаратной игры. Пока что кошельки открыты, и кремний горяч.

Рекомендуемые