AI News

OpenAI Breaks New Ground with $10 Billion Cerebras Partnership

OpenAI официально подписала историческое соглашение с производителем AI-чипов Cerebras Systems, взяв на себя обязательства примерно на $10 миллиардов для развертывания 750 мегаватт вычислительной мощности к 2028 году. Этот стратегический шаг означает заметный отход от почти исключительной зависимости OpenAI от Nvidia, сигнализируя о более широкой стратегии диверсификации, направленной на обеспечение аппаратными средствами, необходимыми для следующего поколения искусственного интеллекта.

Сделка, заключённая в середине января 2026 года, является одним из крупнейших контрактов на закупку ускорителей ИИ без GPU на сегодняшний день. Интегрируя технологию wafer-scale (wafer-scale technology) от Cerebras, OpenAI стремится устранить критическое узкое место при развёртывании продвинутых моделей рассуждения (reasoning): задержку при выводе. В то время как GPU от Nvidia остаются отраслевым стандартом для обучения массивных фундаментальных моделей, архитектура Cerebras предлагает уникальные преимущества для обработки в реальном времени, необходимой для всё более сложных AI-агентов.

The Strategic Pivot: Diversifying the Supply Chain

На протяжении многих лет индустрия ИИ работала по парадигме «Nvidia в первую очередь», где чипы серий H100 и Blackwell служили ключом к обучению моделей. Однако экспоненциальный рост спроса на вычислительные ресурсы — в сочетании с ограничениями цепочек поставок и стремительным ростом затрат — вынудил OpenAI развивать экосистему с несколькими поставщиками.

Это соглашение с Cerebras не является единичным событием, а часть продуманной трипартийной аппаратной стратегии. Оно дополняет существующую дорожную карту OpenAI, в которую входят массивные обязательства по инфраструктуре на 10 гигаватт с Nvidia и партнёрство по развёртыванию на 6 гигаватт с AMD. Фрагментируя аппаратные зависимости, OpenAI фактически хеджирует риски нехватки поставок, одновременно используя специфические архитектурные сильные стороны разных вендоров для специализированных рабочих нагрузок.

Unpacking the Deal Structure

Обязательство в $10 миллиардов построено вокруг модели «мощность в обмен на долю» (capacity-for-equity) и сервисной модели. Вместо простой покупки аппаратного обеспечения OpenAI заключила долгосрочное соглашение, по которому Cerebras будет управлять развёртыванием своих систем в выделенных дата-центрах. Развёртывание будет происходить поэтапно: первая значительная мощность появится в конце 2026 года и будет увеличиваться до полной отметки в 750 мегаватт к 2028 году.

Ключевой момент — этот партнёрство сильно ориентировано на вывод (inference), то есть процесс запуска живых моделей для генерации ответов, а не на обучение. По мере того как OpenAI переходит от обучения GPT-5 к развёртыванию моделей рассуждения (reasoning), таких как o-series, стоимость и скорость вывода становятся первостепенными. Архитектура Cerebras, устраняющая медленное перемещение данных между отдельными чипами, теоретически способна обеспечить сверхнизкую задержку, необходимую для этих «мыслящих» моделей.

Technical Deep Dive: The Wafer-Scale Advantage

Чтобы понять, почему OpenAI готова поставить $10 миллиардов на бренд-новичка, нужно взглянуть на фундаментальные архитектурные различия. Традиционные GPU-кластеры опираются на тысячи небольших чипов, соединённых кабелями и коммутаторами. Данные постоянно перемещаются между этими чипами, создавая штрафы за задержку, которые замедляют время отклика модели.

Cerebras использует радикальный подход со своим Wafer-Scale Engine (WSE-3). Вместо того чтобы разрезать кремниевую пластину на сотни отдельных чипов, Cerebras сохраняет пластину целой, создавая единый процессор размером с большую тарелку.

WSE-3 vs. Traditional Architectures

WSE-3 — это монолитный тяжеловес. Он интегрирует память и вычисления на одном и том же кремниевом субстрате, предоставляя пропускную способность, которая затмевает традиционные GPU-настройки. Это позволяет всей модели (или её массивным слоям) размещаться на кристалле, обеспечивая выполнение AI-моделей «мозгового масштаба» на скоростях, ранее недоступных.

Key Technical Differentiators:

  • Zero-Copy Memory: Данные не нужно перемещать между внешней памятью и процессором, что значительно снижает задержку.
  • SRAM Dominance: Чип использует 44GB on-chip SRAM, который по порядкам быстрее HBM (High Bandwidth Memory), применяемой в GPU.
  • Interconnect Density: Поскольку ядра расположены на одной пластине, связь между ними почти мгновенная, обходя узкие места PCIe или Ethernet кабелей.

The Hardware Wars: A Comparative Analysis

Аппаратный портфель OpenAI теперь включает трёх ключевых игроков, каждый из которых выполняет отдельную стратегическую функцию. Следующее сравнение показывает, как Cerebras вписывается в более широкую экосистему рядом с Nvidia и AMD.

Comparative Analysis of OpenAI's Hardware Partnerships

Vendor Commitment Scale Primary Workload Focus Strategic Value Proposition
Nvidia 10 Gigawatts (GW)
~$100B Investment
Training & General Inference
The backbone of GPT-5 and Stargate.
Proven Ecosystem: CUDA software stack dominance and established reliability for massive training runs.
AMD 6 Gigawatts (GW) Cost-Effective Inference
Mid-tier model deployment.
Leverage & Cost: Provides leverage in pricing negotiations and a secondary supply for high-volume, standard workloads.
Cerebras 750 Megawatts (MW)
~$10B Deal
Low-Latency Inference
Reasoning models & Agents.
Speed: Unmatched latency for "thinking" models where response time is the critical user metric.

Market Implications

Эта сделка вызвала волну в полупроводниковом рынке, подтверждая тезис о том, что будущее аппаратного обеспечения ИИ будет гетерогенным. Для Cerebras это победа, определяющая судьбу компании. После отозванной попытки IPO в 2024 году и сомнений в связи с зависимостью от единственного ближневосточного клиента (G42), одобрение со стороны OpenAI фактически закрепляет её статус игрока высшего эшелона. Аналитики ожидают, что эта сделка откроет путь для успешного IPO Cerebras в середине 2026 года.

Для Nvidia, несмотря на то что сделка на 750 MW — лишь часть её 10 GW портфеля, это представляет собой первую трещину в её монополии на высокопроизводительные вычисления ИИ. Это показывает, что гиперскейлеры готовы обходить защиту CUDA ради специфических приростов производительности в сегменте вывода — рынка, который ожидается в будущем превзойдёт обучение по объёму.

The Shift to Inference Economics

По мере того как модели ИИ переходят из исследовательских лабораторий в потребительские продукты, экономический фокус смещается с «стоимости обучения» на «стоимость за токен» и «время до токена». Модели рассуждения (reasoning), которые могут «думать» секунды или минуты перед ответом, требуют огромных вычислительных ресурсов в момент взаимодействия. Способность Cerebras обеспечивать выдачу этих токенов быстрее, чем GPU-кластер, позволяет OpenAI улучшать пользовательский опыт для своих самых продвинутых продуктов, потенциально оправдывая более высокие уровни подписки для корпоративных клиентов, которым требуется мгновенный сложный анализ.

Future Outlook: The Road to Stargate

Дорожная карта OpenAI указывает на строительство гипотетического суперкомпьютера "Stargate" стоимостью $100 миллиардов. Ожидается, что Nvidia будет питать основные тренировочные кластеры Stargate, однако включение Cerebras предполагает, что объект, вероятно, будет гибридной средой.

Можно ожидать будущее, в котором запрос ИИ маршрутизируется динамически: широкие творческие запросы могут направляться в кластер Nvidia H200; стандартная обработка — на AMD MI450s; а сложные, требующие логики задачи — на узлы Cerebras WSE-3. Такой подход «специализированных вычислений» отражает эволюцию рынка CPU, где разные ядра обрабатывают разные задачи, что позволяет OpenAI максимально оптимизировать эффективность на ватт и на доллар.

Обеспечив сейчас 750MW специализированной мощности для вывода, OpenAI гарантирует, что когда её агенты следующего поколения для рассуждения будут готовы к миру, инфраструктура будет готова позволить им думать в режиме реального времени.

Рекомендуемые