AI News

AIハードウェア市場の物語は長らくNvidiaによる独白だった。何年もの間、話は単純だった:高度なAIモデルを訓練・実行したければ、H100やBlackwellのGPUを買い、プレミアムを支払い、順番を待つ。だが、2026年2月に入り、筋書きはねじれた。従来ネットワーキング大手と見なされてきたBroadcomは、実質的にAI産業の「沈黙の王造り(silent kingmaker)」としての地位を確立し、Nvidiaの絶対的優位を脅かす反乱を演出している。

既製品を買うのではなく、自前で“脳”を構築することを大手テック企業に可能にすることで、Broadcomは「カスタムシリコン(Custom Silicon)」の新時代を切り開いた。Google、Meta、ByteDanceを含む主要な勝利に加え、OpenAIとの大規模な提携が確認され、Broadcomは単にNvidiaと競合しているだけではなく、人工知能(artificial intelligence)の経済性を根本的に変えつつある。

The Rise of the Anti-Nvidia Alliance

Broadcomの台頭を後押しする原動力は「ハイパースケーラーのピボット(hyperscaler pivot)」だ。Google、Microsoft、Metaといった大手は、汎用GPUに全面的に依存することが大規模では経済的に持続不可能であると気づいた。Nvidiaのチップは気象シミュレーションからLLMの訓練まで何でもこなせる非常に汎用的なものだが、その汎用性は電力とコストのペナルティを伴う。

そこに登場するのがBroadcomのASICs(Application-Specific Integrated Circuits)だ。Nvidiaの万能型アプローチとは異なり、Broadcomは顧客の特定ワークロードに徹底的に最適化されたチップを共同設計する。2026年時点で、この戦略はニッチな実験から市場を定義するトレンドへと成熟した。Broadcomは現在、カスタムAI ASIC市場の約75%を掌握しており、業界で最も強力なプレイヤーたちのファウンドリーパートナーとして機能している。

このモデルの最も重要な裏付けは、最近のOpenAIとの提携確認で到来した。OpenAIのカスタムアクセラレータを製造する数十億ドル規模の契約を勝ち取ることで、BroadcomはNvidiaの最も忠実な顧客基盤の心臓部に切り込んだ。この動きは、ChatGPTの生みの親でさえサプライチェーンの多様化を図り、Nvidiaのハードウェアマージンへの依存を減らそうとしていることを示している。

Inside the "XPU" Ecosystem

Broadcomの戦略は、しばしば「XPU」と呼ばれる高ボリューム顧客の選ばれたグループと深く統合することに依存している。この名簿は世界のインターネット界の錚々たる顔ぶれのようだ:

  • Google (Alphabet): 最も長く続くパートナーシップだ。BroadcomはGoogleのTensor Processing Units(TPUs)の7世代以上を共同設計してきた。これらのチップはGoogleのAIインフラの基盤であり、SearchからGeminiモデルまであらゆるものを支えている。
  • Meta Platforms: BroadcomはMeta Training and Inference Accelerator(MTIA)を作っている。MetaがLlamaモデルやレコメンデーションエンジンをスケールさせる中、これらのカスタムチップによりMark Zuckerbergの帝国は資本支出を削減しつつスループットを増加させられる。
  • ByteDance: TikTokの親会社であるByteDanceは、数十億のユーザーをスクロールさせ続ける巨大なレコメンデーションアルゴリズムを処理するためにBroadcom設計のシリコンを採用しており、準拠したカスタム設計で輸出制限を回避している。

これらの関係は粘着性がある。取引で終わるGPU購入とは異なり、ASICの設計は数年にわたるエンジニアリングの結婚だ。ハイパースケーラーがBroadcom設計のチップを中心にソフトウェアスタックを構築すると、そのインフラを置き換えることは非常に困難になる。

The Economics of Custom Silicon vs. Commodity GPUs

業界がなぜシフトしているのかを理解するには、総所有コスト(TCO)を見る必要がある。小規模な企業にとっては、柔軟性を提供するためNvidiaのGPUを購入するのが依然として最も合理的な選択だ。しかし、ギガワット単位のコンピュートを展開するハイパースケーラーにとっては、計算が劇的に変化する。

特徴 Nvidiaの汎用GPU BroadcomのカスタムASICs
主な焦点 汎用性と広範なソフトウェアサポート(CUDA) 効率性と特定ワークロードへの最適化
電力効率 電力消費が高い(未使用機能をサポートするため) 最大効率(必要なタスクのための回路のみ)
コスト構造 高い前払マージン、開発努力は低い 高いNRE(開発)コスト、スケール時の単価は低い
ソフトウェアエコシステム 独自のCUDAロックイン オープン/カスタムソフトウェアスタック(例:PyTorch/JAX)
サプライチェーン制御 Nvidiaが管理 ハイパースケーラー(顧客)が管理

The Networking Moat

カスタムチップが見出しを飾る一方で、Broadcomのネットワーキング分野での牙城はまだその知られざる超強みだ。2026年のAIクラスターは単なるチップの山ではなく、数千ノード間で超高速データ転送を必要とする巨大な分散スパコンだ。

Broadcomのイーサネット・スイッチングソリューション、特にTomahawkとJerichoシリーズは、これらのAIクラスターを接続する標準となった。Nvidiaが独自のInfiniBand技術を推進する一方で、業界全体はBroadcomが推進するUltra Ethernetを中心に標準化している。

これは「ダブルディップ(double-dip)」の収益源を生む。たとえデータセンターが一部でNvidiaのGPUを使っていても、機能させるためにはBroadcomのネットワーク機器に依存している可能性が高い。もし彼らがカスタムシリコンに切り替えれば、Broadcomはコンピュートと接続の両方を供給する。この多様化により、Broadcomは純粋な半導体プレイヤー株が頻繁に直面する変動性から守られる。

Outlook: A Bifurcated Market

2026年が進むにつれ、AIハードウェア市場は二極化している。Nvidiaは幅広い市場、エンタープライズ顧客、および柔軟性が鍵となるフロンティアモデルの初期トレーニングにおいて依然として確固たるリーダーだ。しかし、Broadcomは実際に消費者がAIモデルを利用する段階である「大規模推論(inference at scale)」市場を抑えた。

Creati.aiの読者にとって、結論は明白だ:AIチップ戦争はもはや一強のレースではない。Nvidiaが業界の「フェラーリ」— 高性能で高価、そして魅力的なもの — を作る一方で、Broadcomは実際に世界のAIトラフィックを運ぶ大量輸送システムを構築している。OpenAIとの契約が公になり、ハイパースケーラーが内部シリコンに賭けを強める中、Broadcomのカスタムチップ事業はNvidiaのGPU帝国と規模で張り合う態勢にあり、時には最も危険な競争相手があなたのライバルのために武器を作る者であることを証明している。

フィーチャー