
OpenAI официально подписала историческое соглашение с производителем AI-чипов Cerebras Systems, взяв на себя обязательства примерно на $10 миллиардов для развертывания 750 мегаватт вычислительной мощности к 2028 году. Этот стратегический шаг означает заметный отход от почти исключительной зависимости OpenAI от Nvidia, сигнализируя о более широкой стратегии диверсификации, направленной на обеспечение аппаратными средствами, необходимыми для следующего поколения искусственного интеллекта.
Сделка, заключённая в середине января 2026 года, является одним из крупнейших контрактов на закупку ускорителей ИИ без GPU на сегодняшний день. Интегрируя технологию wafer-scale (wafer-scale technology) от Cerebras, OpenAI стремится устранить критическое узкое место при развёртывании продвинутых моделей рассуждения (reasoning): задержку при выводе. В то время как GPU от Nvidia остаются отраслевым стандартом для обучения массивных фундаментальных моделей, архитектура Cerebras предлагает уникальные преимущества для обработки в реальном времени, необходимой для всё более сложных AI-агентов.
На протяжении многих лет индустрия ИИ работала по парадигме «Nvidia в первую очередь», где чипы серий H100 и Blackwell служили ключом к обучению моделей. Однако экспоненциальный рост спроса на вычислительные ресурсы — в сочетании с ограничениями цепочек поставок и стремительным ростом затрат — вынудил OpenAI развивать экосистему с несколькими поставщиками.
Это соглашение с Cerebras не является единичным событием, а часть продуманной трипартийной аппаратной стратегии. Оно дополняет существующую дорожную карту OpenAI, в которую входят массивные обязательства по инфраструктуре на 10 гигаватт с Nvidia и партнёрство по развёртыванию на 6 гигаватт с AMD. Фрагментируя аппаратные зависимости, OpenAI фактически хеджирует риски нехватки поставок, одновременно используя специфические архитектурные сильные стороны разных вендоров для специализированных рабочих нагрузок.
Обязательство в $10 миллиардов построено вокруг модели «мощность в обмен на долю» (capacity-for-equity) и сервисной модели. Вместо простой покупки аппаратного обеспечения OpenAI заключила долгосрочное соглашение, по которому Cerebras будет управлять развёртыванием своих систем в выделенных дата-центрах. Развёртывание будет происходить поэтапно: первая значительная мощность появится в конце 2026 года и будет увеличиваться до полной отметки в 750 мегаватт к 2028 году.
Ключевой момент — этот партнёрство сильно ориентировано на вывод (inference), то есть процесс запуска живых моделей для генерации ответов, а не на обучение. По мере того как OpenAI переходит от обучения GPT-5 к развёртыванию моделей рассуждения (reasoning), таких как o-series, стоимость и скорость вывода становятся первостепенными. Архитектура Cerebras, устраняющая медленное перемещение данных между отдельными чипами, теоретически способна обеспечить сверхнизкую задержку, необходимую для этих «мыслящих» моделей.
Чтобы понять, почему OpenAI готова поставить $10 миллиардов на бренд-новичка, нужно взглянуть на фундаментальные архитектурные различия. Традиционные GPU-кластеры опираются на тысячи небольших чипов, соединённых кабелями и коммутаторами. Данные постоянно перемещаются между этими чипами, создавая штрафы за задержку, которые замедляют время отклика модели.
Cerebras использует радикальный подход со своим Wafer-Scale Engine (WSE-3). Вместо того чтобы разрезать кремниевую пластину на сотни отдельных чипов, Cerebras сохраняет пластину целой, создавая единый процессор размером с большую тарелку.
WSE-3 — это монолитный тяжеловес. Он интегрирует память и вычисления на одном и том же кремниевом субстрате, предоставляя пропускную способность, которая затмевает традиционные GPU-настройки. Это позволяет всей модели (или её массивным слоям) размещаться на кристалле, обеспечивая выполнение AI-моделей «мозгового масштаба» на скоростях, ранее недоступных.
Key Technical Differentiators:
Аппаратный портфель OpenAI теперь включает трёх ключевых игроков, каждый из которых выполняет отдельную стратегическую функцию. Следующее сравнение показывает, как Cerebras вписывается в более широкую экосистему рядом с Nvidia и AMD.
Comparative Analysis of OpenAI's Hardware Partnerships
| Vendor | Commitment Scale | Primary Workload Focus | Strategic Value Proposition |
|---|---|---|---|
| Nvidia | 10 Gigawatts (GW) ~$100B Investment |
Training & General Inference The backbone of GPT-5 and Stargate. |
Proven Ecosystem: CUDA software stack dominance and established reliability for massive training runs. |
| AMD | 6 Gigawatts (GW) | Cost-Effective Inference Mid-tier model deployment. |
Leverage & Cost: Provides leverage in pricing negotiations and a secondary supply for high-volume, standard workloads. |
| Cerebras | 750 Megawatts (MW) ~$10B Deal |
Low-Latency Inference Reasoning models & Agents. |
Speed: Unmatched latency for "thinking" models where response time is the critical user metric. |
Эта сделка вызвала волну в полупроводниковом рынке, подтверждая тезис о том, что будущее аппаратного обеспечения ИИ будет гетерогенным. Для Cerebras это победа, определяющая судьбу компании. После отозванной попытки IPO в 2024 году и сомнений в связи с зависимостью от единственного ближневосточного клиента (G42), одобрение со стороны OpenAI фактически закрепляет её статус игрока высшего эшелона. Аналитики ожидают, что эта сделка откроет путь для успешного IPO Cerebras в середине 2026 года.
Для Nvidia, несмотря на то что сделка на 750 MW — лишь часть её 10 GW портфеля, это представляет собой первую трещину в её монополии на высокопроизводительные вычисления ИИ. Это показывает, что гиперскейлеры готовы обходить защиту CUDA ради специфических приростов производительности в сегменте вывода — рынка, который ожидается в будущем превзойдёт обучение по объёму.
По мере того как модели ИИ переходят из исследовательских лабораторий в потребительские продукты, экономический фокус смещается с «стоимости обучения» на «стоимость за токен» и «время до токена». Модели рассуждения (reasoning), которые могут «думать» секунды или минуты перед ответом, требуют огромных вычислительных ресурсов в момент взаимодействия. Способность Cerebras обеспечивать выдачу этих токенов быстрее, чем GPU-кластер, позволяет OpenAI улучшать пользовательский опыт для своих самых продвинутых продуктов, потенциально оправдывая более высокие уровни подписки для корпоративных клиентов, которым требуется мгновенный сложный анализ.
Дорожная карта OpenAI указывает на строительство гипотетического суперкомпьютера "Stargate" стоимостью $100 миллиардов. Ожидается, что Nvidia будет питать основные тренировочные кластеры Stargate, однако включение Cerebras предполагает, что объект, вероятно, будет гибридной средой.
Можно ожидать будущее, в котором запрос ИИ маршрутизируется динамически: широкие творческие запросы могут направляться в кластер Nvidia H200; стандартная обработка — на AMD MI450s; а сложные, требующие логики задачи — на узлы Cerebras WSE-3. Такой подход «специализированных вычислений» отражает эволюцию рынка CPU, где разные ядра обрабатывают разные задачи, что позволяет OpenAI максимально оптимизировать эффективность на ватт и на доллар.
Обеспечив сейчас 750MW специализированной мощности для вывода, OpenAI гарантирует, что когда её агенты следующего поколения для рассуждения будут готовы к миру, инфраструктура будет готова позволить им думать в режиме реального времени.