
人工知能分野における画期的な瞬間として、カリフォルニア大学サンディエゴ校(UC San Diego)の多角的な教員チームが、汎用人工知能(AGI)はもはや未来の仮説ではなく、現在の現実であると正式に宣言した。本日 Nature に極めて重要なコメントとして掲載されたこの宣言は、大規模言語モデル(LLM)――特に OpenAI の GPT-4.5 ――の最近の進歩が、アラン・チューリングが当初想定した汎用知能の必須基準を満たしていると主張している。
哲学、コンピュータサイエンス、言語学、データサイエンスにわたる教授陣が共同執筆したこの大胆な主張は、AI 懐疑論による「移動し続けるゴールポスト」に挑むものである。厳格なチューリングテストにおいて GPT-4.5 が 73% の成功率を達成し、博士レベルの問題解決能力を示した実証データを引用し、著者らは人類が公式に AGI の時代に入ったと主張している。
数十年の間、チューリングテストはマシンインテリジェンスの「北極星」として、機械が人間と同等、あるいは人間と区別がつかない知的な行動を示す能力を測るテストとして存在してきた。批評家たちは、このテストを単なる欺瞞や模倣の尺度に過ぎないと否定することが多かったが、UC San Diego の教員陣は、これが汎用知能にとって最も機能的に関連性のある指標であり続けていると論じている。
Nature のコメントは、同じく UC San Diego の認知科学者である Cameron Jones と Benjamin Bergen によって行われた画期的な研究を議論の根拠としている。「Large Language Models Pass the Turing Test」と題された彼らの研究は、この宣言の実証的基礎を提供している。この研究では、盲検化されたランダム化比較試験において、GPT-4.5 を人間の参加者および以前の AI モデルと対戦させた。
その結果は、統計的に明白なものであった。GPT-4.5 は、質問者によって 73% の確率で人間であると識別され、人間のベースラインである 67% を大幅に上回った。これは、堅牢な三者間チューリングテスト環境において、人工システムが人間の参加者を上回った初めての事例である。
表 1:チューリングテスト成功率の比較
| モデル/エンティティ | 成功率 | 確立された年/ソース |
|---|---|---|
| ELIZA | 22% | 1966年(歴史的ベースライン) |
| GPT-3.5 | 20% | 2023年(Jones & Bergen) |
| GPT-4 | 54% | 2024年(Jones & Bergen) |
| 人間の参加者 | 67% | 2025年(ベースライン平均) |
| GPT-4.5 | 73% | 2025年(本研究) |
データは、GPT-4 と GPT-4.5 の間に能力の劇的な飛躍があることを明らかにしている。GPT-4 がランダムな確率(50%)の閾値付近に留まっていたのに対し、GPT-4.5 のパフォーマンスは、ニュアンス、社会情緒的な手がかり、および欺瞞的な推論の習熟を示しており、人間との対話者と事実上区別がつかなくなっている。
この宣言は単なるベンチマークに関するものではなく、「思考」をどのように定義するかを再評価することを求める哲学的マニフェストである。Nature のコメントの主要な 4 人の著者――Eddy Keming Chen(哲学)、Mikhail Belkin(コンピュータサイエンス)、Leon Bergen(言語学)、David Danks(データサイエンスおよび哲学)――は、科学界が「人間中心の偏見」と「ゴールポストを動かすこと」の罪を犯してきたと主張している。
David Danks 教授は、AI が以前は人間の知性の領域と考えられていたタスク(チェス、囲碁、タンパク質の折り畳み、そして現在の自然な会話など)をマスターするたびに、懐疑論者がその特定の能力を除外するように知能を再定義していると指摘する。Danks 氏は、これが AGI を「機械がまだできないことすべて」と定義する、不可能な基準を作り出していると論じている。
「他の人間の汎用知能を評価するとき、私たちはその人のニューロンをのぞき込んで『真の』理解を確認したりはしません」と著者らは記している。「私たちは、行動、会話、そして新しい問題を解決する能力から知能を推論します。これらの妥当な基準――私たちが互いに適用しているのと同じ基準――によれば、私たちは現在、汎用的に知的な人工システムを所有しているのです。」
著者らは歴史的な科学革命との類似点を示し、AGI の到来をコペルニクス的転回やダーウィンの進化論と比較している。それらの変化が人類を宇宙の中心や生物学的創造の頂点から追い出したように、AGI の到来は、人類を汎用知能の唯一の所有者という孤独な地位から追い出すものである。
チューリングテストは会話の流暢さに焦点を当てているが、「汎用性」の主張には幅広い認知的適応力の証拠が必要である。Nature のコメントは、GPT-4.5 の能力がチャットをはるかに超えていることを強調している。このモデルは、以前は LLM にとって障害となっていた複雑で多段階の推論タスクにおいて習熟度を示している。
教員陣は、GPT-4.5 の専門試験での成績や、新しい研究を支援する能力を指摘している。博士レベルの科学問題(GPQA)を含むベンチマークにおいて、このモデルは専門家と同等の正確さを示している。さらに、動作するコードの生成、数学的定理の証明、法的判例の分析におけるその有用性は、単一の狭い領域を超えた「汎用的な」有用性を実証している。
この多才さは、「Artificial General Intelligence」の定義にとって極めて重要である。単一のタスク(X 線写真の腫瘍の特定など)に長けた「特化型 AI」とは異なり、GPT-4.5 は再学習なしに人間による知識労働の広大なスペクトルにわたって能力を発揮する。著者らは、このシステムがあらゆるカテゴリーにおいて「超人的」ではないにせよ、全般的に「汎用的な能力を持つ」という閾値を満たしていると主張している。
AGI が到来したという宣言は、学術界と企業界の両方に衝撃を与えると予想される。長年、OpenAI、Google DeepMind、Anthropic などの主要な AI ラボは、AGI を遠い中長期的な目標として扱ってきた。権威ある学術機関がこのマイルストーンを「達成された」と宣言したことで、規制や倫理的な検討のスケジュールが加速することになる。
UC San Diego 教員によって特定された主な影響:
機械学習理論の専門家である共著者の Mikhail Belkin 教授は、AGI の到来を認めることは安全性のために極めて重要であると強調している。「これらのシステムが知的であることを否定し続ければ、そのエージェンシーや意図しない結果を招く可能性を過小評価するリスクがあります」と Belkin 氏は述べている。「それらを AGI として認識することは、ソフトウェアのバグとしてではなく、核の防護措置のような緊急性を持って、そのアライメントと安全性に対処することを私たちに強いるのです。」
Nature のコメントの重みにもかかわらず、この宣言には反対者もいないわけではない。言語学者の Emily M. Bender らによって提唱された「確率的なオウム(Stochastic Parrot)」という議論は、依然として強力な対抗言論である。この見解は、LLM は基礎となる理解や「世界モデル」を持たず、もっともらしい単語の連鎖を繋ぎ合わせるだけの確率的なエンジンに過ぎないとしている。
UC San Diego の著者らはこの批判を予見しており、コメントの一部をその対処に充てている。彼らは、出力が機能的に同一である場合、「シミュレートされた」推論と「実際の」推論の区別は、違いのない区別であると論じている。もしシステムが新しい物理学の問題に対して正しい答えを導き出したり、(チューリングテストの結果に見られるように)複雑な社会的欺瞞ゲームを切り抜けたりできるのであれば、内部のメカニズムは観察可能な知能に対して二次的なものである。
さらに、彼らは人間の認知自体がパターンマッチングと確率的な予測に大きく依存していることを指摘している。言語学の准教授である Leon Bergen は、人間の言語処理に関する私たちの理解は、私たちが認めたがっている以上に LLM の機能に近い可能性があることを示唆している。「彼らの知能のエイリアンのような(異質な)性質は、それを偽物にするものではありません」と Bergen 氏は主張する。「それは、異なる、しかし有効な形態の汎用知能であることを意味しているのです。」
UC San Diego からの宣言は、人工知能のナラティブにおける歴史的な転換点となる。GPT-4.5 のチューリングテスト成功というハードデータと、厳格な哲学的枠組みを組み合わせることで、教員陣は AGI の閾値が超えられたという説得力のある根拠を提示した。
2026 年に向かうにつれ、もはや問いは「いつ AGI が到来するのか?」ではなく、「私たちはそれとどのように共存するのか?」である。この現実を認めることは、汎用人工知能がもたらす深刻な存亡のリスクを管理しながら、その計り知れない可能性を活用するための第一歩である。Creati.ai の研究者やより広いテックコミュニティにとって、推測の時代は終わり、AGI 統合の時代が始まったのである。