
今週ニューデリーで開催されたIndia AI Impact Summitにおいて、Google DeepMindのCEOであるデミス・ハサビス(Demis Hassabis)氏は、テクノロジーへの楽観主義と地政学的な緊急の警戒感のバランスをとった、決定的な基調講演を行いました。政策立案者、業界のリーダー、研究者が集まる国際的な場で、ハサビス氏はAGIの到来について、これまでで最も具体的なタイムラインの一つを提示し、今後「5年から10年以内」に出現すると予測しました。しかし、この予測には厳しい警告が添えられていました。AIシステムが受動的なツールから自律型エージェント(Autonomous agents)へと移行する中で、強固な国際的安全枠組みを構築するための猶予は失われつつあるというものです。
生成AIの能力が急速に加速している時期に開催されたこのサミットは、業界がいま直面している「閾値の瞬間(Threshold moment)」をハサビス氏が説く背景となりました。新しい「科学的発見」の黄金時代の可能性を称賛する一方で、彼は高度なAIのデュアルユース(Dual-use:軍民両用)の性質、つまり多大な利益と甚大な被害の両方をもたらし得る性質が、現在のテクノロジーの進歩に遅れをとっているレベルの国際協力を必要としていることを強調しました。
ハサビス氏の講演は、現在の最新モデルの限界について、稀に見る率直な評価を下すものでした。最近の生成AIの飛躍的進歩を巡る熱狂にもかかわらず、彼は今日のシステムを「斑(まだら)な知能(Jagged intelligences)」と表現しました。この用語は、コーディングやクリエイティブ・ライティングなどの特定の領域では人間を超越した輝きを見せる一方で、人間の子供なら簡単にこなせる初歩的な推論タスクで同時並行的に失敗するモデルを指します。
「私たちはこれらのシステムに何ができるかを見始めましたが、それらは依然として脆弱です」とハサビス氏はセッション中に述べました。彼は、あるモデルが国際数学オリンピックで金メダルを獲得できる一方で、質問が型破りな表現で出されると単純な算数でつまずく可能性があることを指摘しました。この一貫性の欠如こそが、現在の特化型AIと真のAGIを隔てる主要な障壁であると彼は主張しました。
AGIに到達するために必要な飛躍を説明するために、ハサビス氏は科学的イノベーションを伴う野心的な思考実験を提案しました。彼は、真のAGIであれば、1911年を知識のカットオフとして学習し、アルバート・アインシュタインの1915年の突破口を再現するように一般相対性理論を独立して導き出すことができるはずだと示唆しました。「推測を解くことよりも、正しい問いと正しい仮説を思いつくことの方がはるかに困難です」と彼は説明しました。既存のデータ内での内挿に長けている現在のシステムには、そのような独自の概念的飛躍に必要な「世界モデル」や長期的な計画能力がまだ欠けています。
しかし、DeepMindの共同創設者である彼は、これらのギャップが急速に埋められつつあると確信し続けています。彼は、高レベルの目標を達成するために自律的な行動をとることができる「エージェント的(Agentic)」なシステムの出現を、次の主要なフェーズとして挙げました。チャットボット型の対話からエージェントベースのワークフローへのこの移行は、来年にかけて加速し、業界を5〜10年のAGI目標へと突き動かすと予想されています。
AGIへのタイムラインが圧縮されるにつれ、悪用の可能性も高まります。ハサビス氏は講演の大部分を、フロンティアAIシステムの「デュアルユース」の性質に割きました。AIが創薬を加速させたりエネルギー網を最適化したりすることを可能にする同じ能力が、悪意のある個人から敵対的な国家に至るまでの「悪意ある主体(Bad actors)」によって、危害を加えるために転用される可能性があります。
彼は、即座の懸念事項として、バイオセキュリティとサイバーリスクの2つの具体的な分野を強調しました。
バイオセキュリティの分野では、AIが有害な生物兵器を作成するための参入障壁を下げる可能性があることが懸念されています。AlphaFoldのようなAIツールはタンパク質構造を予測することで生物学に革命をもたらしましたが、適切なガードレールがなければ、同様の技術が理論上、毒素や病原体の設計に使用される可能性があります。
サイバーセキュリティは、さらに差し迫った不安定要素を提示しています。「現在のシステムはサイバー分野で非常に優れてきています」とハサビス氏は警告し、業界は「攻撃よりも防御が強力である」ことを確実にしなければならないと強調しました。AIエージェントが複雑なコードを記述し実行できるようになるにつれ、人間の防御チームの能力を超えてスケールする自動化されたサイバー攻撃のリスクは、現実のものとなります。これには、AIが悪用されるよりも早く脆弱性を修正するためにAIを使用するという、積極的なアプローチが必要となります。
以下の表は、ハサビス氏が描いた、現在導入されているAIモデルと今後10年以内に期待されるAGIシステムとの間の重要な相違点をまとめたものです。
| 指標 | 現在の「斑な」知能 | 将来の汎用人工知能(AGI) |
|---|---|---|
| パフォーマンスの一貫性 | ばらつきが大きい。一部のタスクでは素晴らしいが、基本で失敗する | すべての認知領域において一律に高い能力 |
| 学習手法 | 静的なトレーニングセット。展開後は「凍結」される | 継続的なオンライン学習。リアルタイムの経験からの更新 |
| 推論能力 | パターンマッチングと統計的予測 | 因果推論、仮説生成、および世界モデルの構築 |
| 自律性レベル | 人間のプロンプトを必要とする受動的なツール | エージェント的。長期的な計画と独立した行動が可能 |
| 主なリスク要因 | ハルシネーション(幻覚)とバイアス | 位置合わせ(アライメント)の失敗、制御の喪失、およびデュアルユースの拡散 |
デジタル知能の境界のない性質は、それを独自の規制上の課題にしています。ハサビス氏は、データやモデルが管轄区域を越えて瞬時に流れるため、単一の国がAIのリスクを効果的に封じ込めることはできないと主張しました。彼は、原子力エネルギーや気候変動のために設立されたものと同様の国際的な枠組みを求めましたが、現在の断片化された地政学的状況においてこれを達成することの難しさも認めました。
「これは国際対話のための非常に重要な集会地点になりつつあります」とハサビス氏はサミットについて述べ、これらの重要な会話を促進する上でのインドの役割を称賛しました。彼は、インドのエンジニアリング人材の厚さとデジタルインフラの急速な導入を挙げ、インドを将来の「AIのパワーハウス(原動力)」として明確に位置づけました。
しかし、グローバルな協力への道は緊張に満ちています。現在、各国はAI政策の異なる側面を優先しており、イノベーションの優位性に焦点を当てる国もあれば、厳格な安全性への準拠に焦点を当てる国もあります。ハサビス氏のメッセージは明確でした。特に自律型エージェントの展開とバイオセキュリティの保護措置に関して、最小限のグローバルスタンダードがなければ、世界は安全性に関する「底辺への競争(Race to the bottom)」に陥るリスクがあるということです。
リスクに重点が置かれたものの、ハサビス氏のメッセージの核心は、科学のためのAIが持つ変革の可能性に根ざしたままでした。彼は来るべき10年を、AIツールが数十年にわたって研究者を悩ませてきた物理学、生物学、材料科学の謎を解き明かす「新しいルネサンス」と表現しました。
この楽観主義は、DeepMind自身のこれまでの実績に裏打ちされています。囲碁のマスターからタンパク質折り畳み問題の解決に至るまで、同社はAIが複雑で未定義の問題を解決できることを一貫して証明してきました。ハサビス氏の視点では、AGIへの移行は単により賢いチャットボットを構築することではなく、知識拡大のための究極のツールを作り出すことです。「私は常に、AIがこれまでに発明された中で最も重要で有益なテクノロジーの一つになると信じてきました」と彼は振り返り、自身のキャリアを通じた追求は科学的発見を加速させたいという願望に突き動かされてきたと述べました。
Creati.ai の観点からは、India AI Impact Summitでのハサビス氏のコメントは、業界の物語における重要な転換を示唆しています。私たちは、生成されたテキストや画像に対する初期の驚きから、信頼性が高く自律的なエージェントを構築するという、真剣で困難な作業へと移行しています。
企業や開発者にとって、現在のモデルの「斑な」性質は既知の摩擦点です。AGIの約束は、AIの信頼性がもはや運任せではなく、保証される未来を暗示しています。しかし、5年から10年というタイムラインは、企業が現在のツールに投資しつつ、能力の劇的な飛躍に備えてインフラを準備し、機敏であり続けなければならないことを示唆しています。
セキュリティへの強調は、次世代のAI製品がその「デュアルユース」の可能性に関して、より厳格な精査に直面する可能性が高いことも示しています。私たちは、エージェント型AIシステムを監視、監査、およびファイアウォールで保護するために特別に設計されたツールである、AIセキュリティプラットフォームへの需要が急増すると予想しています。業界がハサビス氏の警告を消化するにつれ、焦点はおそらく「防御優先(Defense-first)」のAI開発へと移り、今日私たちが構築するシステムが明日、脆弱性にならないようにすることに向けられるでしょう。