
人工知能業界の重要な瞬間として、Google DeepMindのCEOであるDemis Hassabisは、大規模言語モデル(大規模言語モデル(Large Language Models、LLMs))の支配的な流れに公然と異議を唱え、OpenAIのような競合が支持する現在の道筋は真の汎用人工知能(汎用人工知能(AGI))を達成するには不十分だと主張しました。2026年1月19日にCNBCのポッドキャスト「The Tech Download」で語ったHassabisは、単に統計的相関に基づいてテキストを予測するのではなく、物理的現実をシミュレートし因果関係を理解できる「ワールドモデル(World Models)」へ戦略的なピボットを行うと明言しました。
この批判は、世界有数のAI研究所の哲学的・技術的なロードマップにおける重大な乖離を示しています。Sam Altman率いるOpenAIは歴史的にスケーリング則(計算量とデータ量を増やせば知能が向上するという考え)に注力してきましたが、Hassabisは科学的発明や第一原理からの推論に関してはそのアプローチが「根本的な壁」にぶつかっていると示唆しています。
Hassabisの主張の核心は、情報処理と物理的理解の区別にあります。GPTシリーズのような大規模言語モデルは、人間が生成した膨大なテキストを解析してパターンを見つける点で優れています。しかしHassabisは、これらのモデルは「因果関係を真に理解していない」と主張します。彼らは訓練データにある記述に基づいて落ちるリンゴを説明できても、見たことのない新しい環境で重力の物理をシミュレートして結果を予測することはできません。
「今日の大規模言語モデルはパターン認識に関しては驚異的だ」とHassabisはインタビューで述べました。「しかし、なぜAがBにつながるのかを本当に知っているわけではない。単に次のトークンを予測しているだけだ」。
Creati.aiの読者にとって、この区別は極めて重要です。これは、LLMが会話インターフェースやコーディングアシスタントとして向上し続ける一方で、新素材の発見や疾患の治療など複雑な科学的課題を解決するために必要な「AlphaGo規模の突破」を引き起こす能力は持ち続けられない可能性を示唆しています。Hassabisは、AGIはまだ5~10年先にあり、現在のTransformerベースのパラダイムを超えるアーキテクチャが必要だと見積もっています。
DeepMindの代替ビジョンは、物理世界の内部表現を構築するAIの創出に焦点を当てています。これらの「ワールドモデル(World Models)」は図書館のように機能するのではなく、ゲームエンジンのように動作します。思考実験を実行し、3D空間で結果をシミュレートし、一貫した物理法則の下で仮説を検証できます。
DeepMindはすでにこのアプローチの実現可能性を示し始めています。Hassabisは、2025年8月にリリースされたテキストプロンプトから対話型3D環境を生成するシステムのGenie 3や、これらのシミュレートされた世界内でエージェントを訓練してナビゲートやタスクを実行させるSIMA 2を例に挙げました。初期の研究では、言語理解と空間的推論を組み合わせたこれらのハイブリッドシステムは、純粋な大規模言語モデルよりも複雑な推論タスクで20~30%優れ、基礎的な物理に関する幻覚(hallucination)を大幅に減らすことが示唆されています。
これらの発言のタイミングは偶然ではありません。AI業界は現在、激しい変動期を迎えています。2025年後半にGoogleのGemini 3がローンチされた後、OpenAI内部でスケーリング戦略が収益逓減を招いているとの懸念から「Code Red」が発生したと報じられました。LLMのみの道の限界を公に語ることで、HassabisはGoogleを単なる競合ではなく、次のアーキテクチャ的飛躍の先駆者として位置付けようとしています。
これは哲学的な主張であるだけでなく、運用上の変化でもあります。Hassabisは現在AlphabetのCEOであるSundar Pichaiと日々連絡を取っていると明らかにし、これによりDeepMindがGoogleのAI努力の単一の「エンジンルーム」としての地位を高めていることを強調しました。この合理化された構造は、研究のブレークスルーを消費者向け製品へより迅速に翻訳することを目指すものであり、Googleが以前は動きが遅いと批判されていたことへの直接的な対応です。
技術的な議論を超えて、Hassabisは世界のAI情勢について慎重な評価を示しました。国際競争について尋ねられると、中国のAIモデルが西側のモデルとの差を急速に埋めつつあると指摘しました。
「それは年単位ではなく月単位の問題だ」とHassabisは米中間の最先端モデルの遅れについて述べました。彼はAlibabaのような企業やMoonshot AIのようなスタートアップからの急速な進歩を挙げました。ただし彼は微妙な区別も提示しました:中国の研究所は追随とエンジニアリングの優秀さに長けている一方で、Transformerアーキテクチャのようなゼロからイチの科学的ブレークスルーを生むために必要な特定の「マインドセット」が現在の中国のエコシステムに備わっているかは疑問だと述べました。
このアーキテクチャ論争の重要性を理解するために、現在資源を巡って競合する二つの主要アプローチの能力と限界を対比することが有益です。
大規模言語モデルとワールドモデルの比較
| Feature | 大規模言語モデル | ワールドモデル |
|---|---|---|
| Core Mechanism | 統計的なパターン認識とトークン予測 | 物理的現実と因果関係のシミュレーション |
| Primary Data Source | インターネット上のテキスト、コード、静的画像 | 3D環境、物理エンジン、ビデオデータ |
| Reasoning Capability | 相関的(連想的ロジック) | 因果的(第一原理に基づく推論) |
| Key Limitation | 幻覚(hallucination)と空間認識の欠如 | リアルタイムシミュレーションにかかる高い計算コスト |
| Ideal Use Case | 創作文章、コーディング、要約 | ロボティクス、科学的発見、自律エージェント |
| Example Systems | GPT-4、Claude 3、Llama 3 | Genie 3、SIMA 2、AlphaFold |
(注:表中の「Feature」などの列見出しは元文に合わせて保持しています)
Hassabisがワールドモデルを提唱することは、「ニューロ・シンボリック(neuro-symbolic)」やハイブリッドAIシステムへと向かう業界全体のトレンドを示しています。開発者や企業リーダーにとって、テキストベースのモデルに対するプロンプトエンジニアリング(プロンプトエンジニアリング(prompt engineering))のみに依存する時代は、空間コンピューティング(空間コンピューティング(spatial computing))やシミュレーションがAIスタックの重要な構成要素となる段階へ移行しつつあることを意味するかもしれません。
DeepMindの仮説が正しければ、次世代のAIは単に世界について語るだけでなく、世界をナビゲートできるようになります。この能力は先進的ロボティクスや自律的な科学実験を含む物理経済圏を解放するために不可欠です。OpenAIが言語を通じてAIの「脳」を磨き続ける一方で、DeepMindはその脳に身体と居場所を与えることに注力しているように見えます。
2026年が進むにつれて、モデル開発は言語的流暢性を最適化する道と物理的知能を追求する道に二分化する可能性が高いでしょう。Creati.aiとしては、これらのワールドモデルが既存の生成ツールとどのように統合され、創造的生成と科学的精度を融合した新しいアプリケーションクラスを生むかを注意深く見守っていきます。