AI News

AI採用、ウォール街の予測を上回るペースで加速:Nvidia、Micron、TSMCが収益予想を大幅に超過

ここ数ヶ月、市場心理を悩ませていた「AI疲れ(AI fatigue)」というナラティブは、決定的に打ち砕かれました。半導体業界の3大巨頭であるNvidia、Micron Technology、およびTaiwan Semiconductor Manufacturing Company(TSMC)は、財務的な強さを一斉に示し、コンセンサス予測を上回るだけでなく、それを粉砕する決算を報告しました。これら業界の指標的企業の集団的なパフォーマンスは、ある重要な現実を裏付けています。生成AI(Generative AI)の採用は停滞しておらず、ウォール街のモデルが予測できなかった速度で加速しているのです。

主要なハイパースケーラーによる資本支出(capital expenditures)の縮小を懸念していたアナリストや投資家にとって、最新の四半期数字は厳しい修正を迫るものとなりました。データは、次世代の生成AIモデルを支えるために必要なインフラ構築が完了には程遠いことを明らかにしています。むしろ、私たちはメモリ帯域幅、高度なファウンドリ能力、および次世代の計算能力への大規模な投資を特徴とする、展開の「第2フェーズ」の始まりを目の当たりにしています。

3社の同時超過:同期された急増

今回の決算シーズンで最も説得力のある側面は、AIハードウェアスタック全体で見られた成功の一致です。パフォーマンスが孤立していた過去の四半期とは異なり、今期はファウンドリ(TSMC)から高帯域幅メモリ(Micron)、そしてロジックプロセッサ自体(Nvidia)に至るまで、サプライチェーンのすべての重要なコンポーネントを押し上げる「上げ潮」の状態を示しています。

ウォール街のアナリストは「完璧」なシナリオを織り込んでいましたが、これらの企業はその高い期待さえも上回りました。以下の内訳は、各社の超過規模を示しており、アナリストのコンセンサスと実際の報告数値の乖離を浮き彫りにしています。

会計実績 対 ウォール街予測

企業 指標 コンセンサス予測 実際の実績 差異
Nvidia 収益 547億ドル 570億ドル +23億ドル
Nvidia EPS(調整後) 1.23ドル 1.30ドル +0.07ドル
Micron 収益 132億ドル 136億ドル +4億ドル
Micron EPS(調整後) 3.77ドル 4.78ドル +1.01ドル
TSMC 収益 331億ドル 337億ドル +6億ドル
TSMC EPS(ADR) 2.82ドル 3.14ドル +0.32ドル

Nvidia:計算リソースの容赦ないエンジン

Nvidiaは「大数の法則」を覆し続けています。570億ドルという報告された売上により、同社は加速コンピューティング(Accelerated Computing)プラットフォームへの需要が供給を追い越していることを改めて証明しました。Nvidiaが現在活動している規模の大きさを考えると、23億ドルの収益超過は特に重要です。

この成長の原動力は依然としてデータセンター部門であり、ハードウェアビジネスからフルスタックのプラットフォームプロバイダーへと進化を遂げています。市場は好調な売上を予想していましたが、この超過規模は、ソブリンAI(Sovereign AI)クラウドや企業特有の大規模言語モデル(LLM)への移行が、予想よりも早く進んでいることを示唆しています。

Nvidiaの今四半期の主な原動力:

  • ソブリンAI: 独自の国内コンピューティングインフラを構築する国家が収益の1桁台後半を占めました。これは2年前には実質的に存在しなかったセクターです。
  • エンタープライズ推論: 学習需要は引き続き旺盛ですが、Nvidiaは推論(Inference)関連の収益が急増したことを指摘しました。これは、企業がAIモデルを研究室から本番アプリケーションへと移行させていることを示しています。
  • ソフトウェアサービス: Nvidia AI Enterpriseソフトウェアのアタッチレートが過去最高を記録し、ハードウェア独占の上にソフトウェア層を収益化するという同社の戦略が検証されました。

NvidiaのCEOであるジェンスン・フアン(Jensen Huang)氏は、私たちは汎用的な検索から「加速された生成」へと移行するコンピューティングアーキテクチャの根本的な変化の「初期段階」にいると強調しました。報告された1.30ドルのEPSは、需要を満たすためにサプライチェーンの複雑さを増しながらも、高い売上高総利益率を維持できる同社の能力を裏付けています。

Micron:メモリのスーパーサイクル

3社の中で最も衝撃的な結果をもたらしたのは、おそらくMicron Technologyでしょう。このメモリメーカーは、アナリストが「ベーブ・ルース級のホームラン」と呼ぶ実績を叩き出し、1株当たり利益4.78ドルはコンセンサス予測の3.77ドルを圧倒しました。

長年、メモリは好不況の波が激しいコモディティサイクルと見なされてきました。しかし、AIはこのダイナミクスを根本から変えました。高帯域幅メモリ(High Bandwidth Memory - HBM)、特にHBM3Eの需要は、供給制約のある環境を生み出し、Micronに前例のない価格決定権を与えています。現代のAIアクセラレータは、膨大な高速メモリのプールがなければ役に立ちません。Micronはこのエコシステムの重要な実現者としての地位を確立することに成功しました。

Micronが期待を上回った理由:

  1. HBMの価格決定権: HBMの生産能力が2026年まで完売しているため、Micronはプレミアム価格を設定することができ、売上高総利益率を大幅に押し上げました。
  2. データセンター向けSSD: DRAM以外でも、GPUクラスターにデータを供給するための高速ストレージの需要により、データセンター向けSSDカテゴリーで過去最高の収益を記録しました。
  3. 在庫の正常化: PCおよびスマートフォン市場における従来の在庫過剰が解消され、AI主導のプレミアムセグメントが直接的に収益を牽引できるようになりました。

1.01ドルのEPS超過は、プロセッサ速度がメモリ速度を上回ってしまうボトルネックである「メモリの壁(Memory Wall)」がAIパフォーマンスの新たな戦場となっており、顧客がそれを克服するためにプレミアムを支払う意向があることを明確に示しています。

TSMC:未来のファウンドリ

NvidiaがエンジンでMicronが燃料であるなら、TSMCはそのマシンを組み立てる工場です。Taiwan Semiconductor Manufacturing Companyの結果は、AIブームが一時的なものではなく構造的なものであるという根本的な証拠を提供しました。

337億ドルの収益を報告したTSMCは、主に3ナノメートル(3nm)技術ノードの急速な立ち上げにより予想を上回りました。しかし、最も強気なシグナルは過去の四半期の収益ではなく、将来の資本支出(Capex)に関するガイダンスでした。TSMCは、2026年のCapex予算を大幅に増額し、520億ドルから560億ドルの範囲を目標とすることを発表しました。

この数字は驚異的です。これはApple、Nvidia、AMDといった主要顧客からの「確定した需要」に対する直接的な反応を意味します。TSMCは投機的に設備投資を行うことはありません。これほどの規模のCapex増額は、顧客が現在存在するウェハー容量を大幅に上回る長期予測を提示していることを示唆しています。

TSMCのCapex増額が意味するもの:

  • 2nmの加速: この支出の大部分は、電力効率の次の飛躍に不可欠なゲートオールアラウンド(Gate-All-Around - GAA)トランジスタ構造を採用する次世代の2ナノメートルノードに割り当てられています。
  • CoWoSの拡張: 先端パッケージング(Advanced packaging)能力(Chip-on-Wafer-on-Substrate)は、AIチップ供給の主要なボトルネックであり続けています。予算の増加は、この供給制約を解消するためのパッケージング施設の広範な拡張を意味します。
  • グローバルな足跡: アリゾナ、日本、そして潜在的には欧州への継続的な投資により、維持コストは高くなるものの、サプライチェーンのレジリエンス(回復力)が高まっています。

市場全体:4,000億ドルのインフラ支出

これら3社の同期した収益超過は、より大きなマクロ経済のトレンドを指し示しています。それは、Alphabet、Meta、Microsoft、Amazonといった「ハイパースケーラー」によるAIインフラストラクチャ(AI infrastructure)への大規模な資本投入です。

現在の予測では、テック大手は2026年だけでAIインフラに約4,000億ドルを費やす見込みです。この支出は単なる保守目的ではなく、計算リソースの覇権を握るための積極的な陣取り合戦です。AlphabetとMetaの両社は、より大規模なモデル(Llama 4やGemini Ultraの後継など)の学習や、数十億人のユーザーへのリアルタイムAIエージェント提供の必要性に駆られ、資本支出が以前のサイクルと比較してほぼ倍増することを示唆しています。

インフラ支出の内訳

カテゴリー 重点領域 主な受益者
計算リソース GPUおよびTPUクラスター Nvidia, Broadcom, Google (TPU)
メモリ HBMおよびDDR5 Micron, SK Hynix, Samsung
製造 先端ノード(3nm/2nm) TSMC
ネットワーキング 光インターコネクトおよびスイッチ Arista, Nvidia (InfiniBand/Spectrum-X)
エネルギー 電力管理および冷却 Vertiv, Schneider Electric

この4,000億ドルの波は、なぜサプライチェーンの数字に「AIバブル」の懸念が現れていないのかを説明するのに役立ちます。需要は、AIの覇権を投機的な試みではなく生存に関わる必需品と見なしている、地球上で最大かつ最も資金豊富な企業によって担保されているのです。

結論:加速は現実である

2026年2月のデータは明白です。Nvidia、Micron、TSMCは、人工知能の採用が加速しているという経験的な証拠を提示しました。ウォール街の保守的な予測と企業の爆発的な結果との乖離は、生成AIのリソース集約度に対するシステム的な過小評価を浮き彫りにしています。

2026年が深まるにつれ、焦点はおそらく単純な「学習」需要から「推論」需要、つまりエンドユーザーのためにこれらのモデルを実際に動かす計算コストへと移っていくでしょう。TSMCが新しいファブの基礎を固め、MicronがHBMの注文を確保し、Nvidiaがソフトウェアの範囲を拡大する中で、このAIネイティブな未来のためのハードウェア基盤は記録的な速さで固められています。減速を予想する懐疑論者に対し、半導体業界からのメッセージは明確です。「私たちはまだ始まったばかりだ」ということです。

フィーチャー