AI News

Сдвиг в кремнии: как Amazon и Google бросают вызов гегемонии Nvidia в области ИИ (AI)

За последние несколько лет повествование о революции искусственного интеллекта (artificial intelligence) неразрывно связывалось с одним поставщиком аппаратного обеспечения: Nvidia. Её H100 и грядущие GPU Blackwell были валютой мира ИИ — дефицитные, дорогие и абсолютно необходимы. Тем не менее сейчас происходит значительный сдвиг, который перестраивает ландшафт. В Creati.ai мы наблюдаем решающий момент, когда крупные поставщики облачных услуг (Cloud Service Providers, CSPs), в частности Amazon и Google, переходят от простых клиентов к грозным конкурентам.

Разрабатывая собственный кремний — у Amazon это Trainium, а у Google — Tensor Processing Units (TPUs) — эти технологические гиганты не только уменьшают свою зависимость от Nvidia, но и генерируют миллиарды дохода и предлагают жизнеспособные высокопроизводительные альтернативы для лидеров отрасли, таких как Anthropic. Эта эволюция знаменует начало эры гетерогенного оборудования, ставящего под вопрос «налог Nvidia», который долгое время доминировал в экономике ИИ-инфраструктуры.

AWS и рост Trainium

Amazon Web Services (AWS) активно продвигает стратегию вертикальной интеграции с линейкой собственного кремния. Хотя компания давно предлагает свои процессоры Graviton для вычислений общего назначения, её недавний фокус резко сместился в сторону ускорения, специально ориентированного на ИИ, через чипы Trainium (для обучения) и Inferentia (для инференса).

Альянс с Anthropic

Самым значимым подтверждением аппаратной стратегии Amazon стало углубление партнёрства с Anthropic. Как одна из ведущих лабораторий в области ИИ, Anthropic требует огромных вычислительных мощностей для обучения своих моделей Claude. Исторически это требовало десятков тысяч GPU от Nvidia. Однако AWS успешно позиционирует свои чипы Trainium как мощную альтернативу.

Anthropic теперь использует чипы AWS Trainium 2 для создания своих крупнейших фундаментальных моделей. Это не просто мера по снижению затрат; это стратегическое согласование. Trainium 2 разработан, чтобы обеспечивать до четырёх раз более быструю производительность обучения и вдвое лучшую энергоэффективность по сравнению с первым поколением. Для такой компании, как Anthropic, где обучение может стоить сотни миллионов долларов, получаемые от кастомного кремния улучшения эффективности напрямую превращаются в конкурентное преимущество.

Последствия для выручки

Финансовое влияние этого сдвига глубоко. Перенеся рабочие нагрузки на собственный кремний, Amazon сохраняет маржу, которая в противном случае ушла бы к Nvidia. Более того, Amazon превращает разработку чипов в генератор дохода. Сообщается, что AWS сейчас генерирует миллиарды долларов выручки от своих собственных чипов ИИ. Это создаёт эффект развитие: доходы от использования Trainium финансируют дальнейшие НИОКР, что приводит к лучшим чипам, которые, в свою очередь, привлекают больше клиентов, уходящих от стандартных GPU-инстансов.

Зрелость TPU от Google и запирание в экосистеме

Пока Amazon совершает прорывы через недавние партнёрства, Google был пионером в области кастомного кремния для ИИ. Google представил свои Tensor Processing Units (TPUs) почти десять лет назад, первоначально для внутреннего использования — для Search, Photos и, позже, революционных моделей Transformer, породивших современный генеративный ИИ (Generative AI).

От внутреннего использования к публичному облаку

Сегодня TPU Google выросли в надёжную платформу, доступную клиентам Google Cloud. Введение TPUs (в частности шестого поколения, Trillium) представляет собой огромный рывок в производительности. Google успешно продемонстрировал, что его оборудование может справляться с самыми требовательными рабочими нагрузками в мире. Примечательно, что такие тяжеловесы, как Apple, по сообщениям, использовали инфраструктуру TPU Google для обучения компонентов своих моделей ИИ, что подчёркивает надёжность и масштаб кастомного кремния Google.

Преимущество программного обеспечения: JAX и XLA

Сила Google заключается не только в кремнии, но и в программном стеке. Пока Nvidia опирается на CUDA, Google выстроил глубокую интеграцию между TPU и JAX, библиотекой на Python, широко используемой для высокопроизводительных численных вычислений. Это сочетание аппаратного и программного уровня позволяет добиться оптимизаций, которые сложно воспроизвести на универсальных GPU. Для разработчиков, глубоко погружённых в экосистему Google, переход на TPU часто приносит выгоду производительности на доллар, с которой оборудование Nvidia, с его высокой надбавкой, не может конкурировать.

Экономический императив: почему рынок меняется

Доминирование Nvidia создало бутылочное горлышко в цепочке поставок ИИ. «Налог Nvidia» — премия, уплачиваемая за их лидирующие GPU — давит на маржи всех ИИ-компаний, от стартапов до гипермасштаберов. Решение Amazon и Google разрабатывать собственные чипы обусловлено тремя критическими факторами:

  1. Контроль затрат: кастомный кремний позволяет CSP контролировать себестоимость производства и предлагать более низкие цены конечным пользователям (или более высокие маржи для себя) по сравнению с арендой GPU от Nvidia.
  2. Независимость цепочки поставок: в разгар бума ИИ получить H100 было почти невозможно. Контролируя собственный дизайн чипов, Amazon и Google уменьшают свою уязвимость к внешним нехваткам поставок.
  3. Энергоэффективность: поскольку центры обработки данных ИИ потребляют тревожное количество глобальной электроэнергии, чипы, спроектированные специфически для одной облачной архитектуры (как Trainium или TPU), можно оптимизировать по охлаждению и энергопотреблению эффективнее, чем готовые GPU.

Сравнительный анализ: кастомный кремний vs. Nvidia

Чтобы понять конкурентную среду, важно сравнить текущие предложения этих техгигантов с отраслевым стандартом.

Table 1: AI Hardware Landscape Comparison

Feature Nvidia (H100/Blackwell) AWS (Trainium 2/Inferentia) Google (TPU v5p/Trillium)
Primary Architecture General Purpose GPU Custom ASIC (Application-Specific) Custom ASIC (Tensor Processing)
Software Ecosystem CUDA (Industry Standard) AWS Neuron SDK JAX / TensorFlow / XLA
Accessibility Universal (All Clouds/On-prem) AWS Exclusive Google Cloud Exclusive
Key Advantage Versatility & Developer Familiarity Cost Efficiency for AWS Users Performance/Watt for Massive Training
Primary Limitation High Cost & Supply Constraints Cloud Vendor Lock-in steep learning curve outside Google ecosystem

Программный барьер: рв (moat) Nvidia

Несмотря на впечатляющие аппаратные характеристики Trainium и TPU, Nvidia сохраняет массивную оборонительную преграду: CUDA. Compute Unified Device Architecture (CUDA) — это программный уровень, который позволяет разработчикам программировать GPU. Он является отраслевым стандартом уже более 15 лет.

Большинство моделей с открытым исходным кодом, библиотек и исследовательских работ написаны с ориентацией на CUDA. Чтобы Amazon и Google действительно подорвали доминирование Nvidia, им нужно сделать не только быстрые чипы; им необходимо обеспечить бесшовный программный опыт.

AWS активно инвестирует в свой Neuron SDK, чтобы переход с GPU на инстанс Trainium требовал минимальных изменений в коде. Аналогично, Google продвигает компиляторы XLA (Accelerated Linear Algebra), чтобы сделать модели портируемыми. Однако инерция сильна. Для многих инженерных команд риск миграции от проверенной стабильности Nvidia/CUDA к облачно-специфическому чипу остаётся серьёзным препятствием.

Перспективы: фрагментированное, но эффективное будущее

Достижения Amazon и Google указывают, что будущее аппаратного обеспечения для ИИ не будет монополией, а станет олигополией. Nvidia, вероятно, останется золотым стандартом для исследований, разработки и кросс-облачной совместимости. Тем не менее для масштабных производственных рабочих нагрузок — где улучшение маржи даже на 10% переводится в миллионы долларов — кастомный кремний от AWS и Google станет выбором по умолчанию.

В Creati.ai мы ожидаем, что 2026 год станет годом «экономики инференса». По мере того как внимание смещается с обучения огромных моделей на их эксплуатацию (инференс), стоимость за токен станет самым критичным показателем. В этой сфере специализированные, энергоэффективные и высокоэффективные чипы, такие как Inferentia и последние TPU от Google, вполне могут превзойти энергозатратные GPU Nvidia.

Война за чипы уже не только о том, у кого самый быстрый процессор; она о том, кто контролирует весь стек — от энергосети до кремния и до API-конечных точек. Amazon и Google доказали, что они не просто снимают прибыль с революции ИИ; они строят её основу.

Рекомендуемые