
За последние несколько лет повествование о революции искусственного интеллекта (artificial intelligence) неразрывно связывалось с одним поставщиком аппаратного обеспечения: Nvidia. Её H100 и грядущие GPU Blackwell были валютой мира ИИ — дефицитные, дорогие и абсолютно необходимы. Тем не менее сейчас происходит значительный сдвиг, который перестраивает ландшафт. В Creati.ai мы наблюдаем решающий момент, когда крупные поставщики облачных услуг (Cloud Service Providers, CSPs), в частности Amazon и Google, переходят от простых клиентов к грозным конкурентам.
Разрабатывая собственный кремний — у Amazon это Trainium, а у Google — Tensor Processing Units (TPUs) — эти технологические гиганты не только уменьшают свою зависимость от Nvidia, но и генерируют миллиарды дохода и предлагают жизнеспособные высокопроизводительные альтернативы для лидеров отрасли, таких как Anthropic. Эта эволюция знаменует начало эры гетерогенного оборудования, ставящего под вопрос «налог Nvidia», который долгое время доминировал в экономике ИИ-инфраструктуры.
Amazon Web Services (AWS) активно продвигает стратегию вертикальной интеграции с линейкой собственного кремния. Хотя компания давно предлагает свои процессоры Graviton для вычислений общего назначения, её недавний фокус резко сместился в сторону ускорения, специально ориентированного на ИИ, через чипы Trainium (для обучения) и Inferentia (для инференса).
Самым значимым подтверждением аппаратной стратегии Amazon стало углубление партнёрства с Anthropic. Как одна из ведущих лабораторий в области ИИ, Anthropic требует огромных вычислительных мощностей для обучения своих моделей Claude. Исторически это требовало десятков тысяч GPU от Nvidia. Однако AWS успешно позиционирует свои чипы Trainium как мощную альтернативу.
Anthropic теперь использует чипы AWS Trainium 2 для создания своих крупнейших фундаментальных моделей. Это не просто мера по снижению затрат; это стратегическое согласование. Trainium 2 разработан, чтобы обеспечивать до четырёх раз более быструю производительность обучения и вдвое лучшую энергоэффективность по сравнению с первым поколением. Для такой компании, как Anthropic, где обучение может стоить сотни миллионов долларов, получаемые от кастомного кремния улучшения эффективности напрямую превращаются в конкурентное преимущество.
Финансовое влияние этого сдвига глубоко. Перенеся рабочие нагрузки на собственный кремний, Amazon сохраняет маржу, которая в противном случае ушла бы к Nvidia. Более того, Amazon превращает разработку чипов в генератор дохода. Сообщается, что AWS сейчас генерирует миллиарды долларов выручки от своих собственных чипов ИИ. Это создаёт эффект развитие: доходы от использования Trainium финансируют дальнейшие НИОКР, что приводит к лучшим чипам, которые, в свою очередь, привлекают больше клиентов, уходящих от стандартных GPU-инстансов.
Пока Amazon совершает прорывы через недавние партнёрства, Google был пионером в области кастомного кремния для ИИ. Google представил свои Tensor Processing Units (TPUs) почти десять лет назад, первоначально для внутреннего использования — для Search, Photos и, позже, революционных моделей Transformer, породивших современный генеративный ИИ (Generative AI).
Сегодня TPU Google выросли в надёжную платформу, доступную клиентам Google Cloud. Введение TPUs (в частности шестого поколения, Trillium) представляет собой огромный рывок в производительности. Google успешно продемонстрировал, что его оборудование может справляться с самыми требовательными рабочими нагрузками в мире. Примечательно, что такие тяжеловесы, как Apple, по сообщениям, использовали инфраструктуру TPU Google для обучения компонентов своих моделей ИИ, что подчёркивает надёжность и масштаб кастомного кремния Google.
Сила Google заключается не только в кремнии, но и в программном стеке. Пока Nvidia опирается на CUDA, Google выстроил глубокую интеграцию между TPU и JAX, библиотекой на Python, широко используемой для высокопроизводительных численных вычислений. Это сочетание аппаратного и программного уровня позволяет добиться оптимизаций, которые сложно воспроизвести на универсальных GPU. Для разработчиков, глубоко погружённых в экосистему Google, переход на TPU часто приносит выгоду производительности на доллар, с которой оборудование Nvidia, с его высокой надбавкой, не может конкурировать.
Доминирование Nvidia создало бутылочное горлышко в цепочке поставок ИИ. «Налог Nvidia» — премия, уплачиваемая за их лидирующие GPU — давит на маржи всех ИИ-компаний, от стартапов до гипермасштаберов. Решение Amazon и Google разрабатывать собственные чипы обусловлено тремя критическими факторами:
Чтобы понять конкурентную среду, важно сравнить текущие предложения этих техгигантов с отраслевым стандартом.
Table 1: AI Hardware Landscape Comparison
| Feature | Nvidia (H100/Blackwell) | AWS (Trainium 2/Inferentia) | Google (TPU v5p/Trillium) |
|---|---|---|---|
| Primary Architecture | General Purpose GPU | Custom ASIC (Application-Specific) | Custom ASIC (Tensor Processing) |
| Software Ecosystem | CUDA (Industry Standard) | AWS Neuron SDK | JAX / TensorFlow / XLA |
| Accessibility | Universal (All Clouds/On-prem) | AWS Exclusive | Google Cloud Exclusive |
| Key Advantage | Versatility & Developer Familiarity | Cost Efficiency for AWS Users | Performance/Watt for Massive Training |
| Primary Limitation | High Cost & Supply Constraints | Cloud Vendor Lock-in | steep learning curve outside Google ecosystem |
Несмотря на впечатляющие аппаратные характеристики Trainium и TPU, Nvidia сохраняет массивную оборонительную преграду: CUDA. Compute Unified Device Architecture (CUDA) — это программный уровень, который позволяет разработчикам программировать GPU. Он является отраслевым стандартом уже более 15 лет.
Большинство моделей с открытым исходным кодом, библиотек и исследовательских работ написаны с ориентацией на CUDA. Чтобы Amazon и Google действительно подорвали доминирование Nvidia, им нужно сделать не только быстрые чипы; им необходимо обеспечить бесшовный программный опыт.
AWS активно инвестирует в свой Neuron SDK, чтобы переход с GPU на инстанс Trainium требовал минимальных изменений в коде. Аналогично, Google продвигает компиляторы XLA (Accelerated Linear Algebra), чтобы сделать модели портируемыми. Однако инерция сильна. Для многих инженерных команд риск миграции от проверенной стабильности Nvidia/CUDA к облачно-специфическому чипу остаётся серьёзным препятствием.
Достижения Amazon и Google указывают, что будущее аппаратного обеспечения для ИИ не будет монополией, а станет олигополией. Nvidia, вероятно, останется золотым стандартом для исследований, разработки и кросс-облачной совместимости. Тем не менее для масштабных производственных рабочих нагрузок — где улучшение маржи даже на 10% переводится в миллионы долларов — кастомный кремний от AWS и Google станет выбором по умолчанию.
В Creati.ai мы ожидаем, что 2026 год станет годом «экономики инференса». По мере того как внимание смещается с обучения огромных моделей на их эксплуатацию (инференс), стоимость за токен станет самым критичным показателем. В этой сфере специализированные, энергоэффективные и высокоэффективные чипы, такие как Inferentia и последние TPU от Google, вполне могут превзойти энергозатратные GPU Nvidia.
Война за чипы уже не только о том, у кого самый быстрый процессор; она о том, кто контролирует весь стек — от энергосети до кремния и до API-конечных точек. Amazon и Google доказали, что они не просто снимают прибыль с революции ИИ; они строят её основу.