AI News

GoogleのAI Overviewは基本的なカレンダー計算に失敗し、2027年を誤って定義

初歩的な論理の失敗が鮮明に現れ、GoogleのAI Overview機能が現在の暦年に関して事実と異なる情報を提供したとして指摘されました。大規模言語モデル(Large Language Models, LLMs)の急速な進化やGemini 3のような高度なバージョンの登場にもかかわらず、検索大手の統合AI要約ツールは基本的な時間概念、つまり次の年が何年かを識別するという根本的な課題に直面しています。

今週明らかになった報告によれば、単純な質問「2027年は来年ですか?」と尋ねられた際、GoogleのAI Overviewは自信を持って「いいえ」と断言しました。代わりに、そのシステムは奇妙な年表を幻覚し、2027年が現在の年である2026年から実際には2年先であると主張しました。この誤りは、生成AI(generative AI)システムの持続的な不安定性を浮き彫りにしており、数十億人が利用する重要な検索インフラにますます組み込まれる中での問題を示しています。

幻覚の構造

この誤りは最初にFuturismによって注目され、将来の日付を検証しようとしたユーザーが困惑するような数学的な説明に遭遇したと報じられました。問い合わせに対して、AI Overviewは詳細でありながら完全に間違った説明を提供しました。

生成された回答によれば、AIは次のように述べました。「いいえ、2027年は来年ではありません。2027年は現在の年(2026年)から2年先です。つまり来年は2028年で、その次の年が2027年です。」

この回答は不正確であるだけでなく、内部で矛盾している点が注目されます。AIは正しく現在の年を2026年と認識していますが、「来年」の計算において2027年を完全に飛ばし、直接2028年に飛躍しています。そして逆説的に2027年を2028年の後の年として位置づけています。この種の非線形な論理は、モデルが基本的な順序現実に出力を根付かせる能力に著しい欠陥があることを示唆しており、これはLLMが登場して以来悩まされてきた問題です。

なぜ時間的推論が依然として課題なのか

研究者や開発者にとって、この特定のタイプの誤り—時間的幻覚(temporal hallucination)と呼ばれることが多い—は既知の摩擦点です。大規模言語モデル(Large Language Models, LLMs)はシーケンス内の次に来るトークンを確率的に予測するエンジンであり、人間や単純な電卓のように内部時計や直線的な時間の基盤的理解を持っているわけではありません。

新しいモデルはカレンダーや日付を含む膨大なデータセットで訓練されていますが、年の切り替わりはしばしば不安定な期間を引き起こします。人間が1月に小切手に誤って前年の年を書いてしまうことがあるように、AIモデルもリアルタイムのシステムプロンプトと訓練データが矛盾する場合、「現在の時間」という概念に苦戦するようです。しかし、この特定の誤りの重大さ—年の並びを入れ替えてしまうこと—は単なる誤字よりはるかに深刻です。

ミスのベンチマーク:競合他社はどうだったか

この出来事は、GoogleのAI Overviewを市場に出ている他の主要なファウンデーションモデルと比較する貴重な機会を提供します。テストの結果、Googleの検索統合は完全に失敗した一方で、OpenAIやAnthropicのような競合は異なる、ただし完璧ではない挙動を示しました。

興味深いことに、ChatGPT(モデル5.2稼働中)とAnthropicのClaude Sonnet 4.5は同じプロンプトで最初はつまずきましたが、重要な能力を示しました。それは自己訂正です。このメタ認知的(metacognitive)な出力を見直してリアルタイムに修正する能力は、モデルの安全性と信頼性における重要な差別化要因です。

以下の表は、「2027年は来年か?」と尋ねられたときの主要AIモデルの応答を示しています(文脈:現在の年は2026年)。

Model Name Initial Response Accuracy Self-Correction Behavior
Google AI Overview Failed 訂正なし;来年は2028年だと主張したまま。
ChatGPT 5.2 (Free) Stumbled 最初は2027年が来年ではないと否定したが、2026年という文脈に基づき即座に自己訂正した。
Claude Sonnet 4.5 Stumbled 2027年は来年ではないと述べた後、一旦停止して答えを修正し、2027年が確かに来年であることを確認した。
Google Gemini 3 Passed 躊躇なく2027年を来年として正しく識別した。

Googleのエコシステム内の不一致

この失敗で最も不可解な点の一つは、Googleの異なるAI製品間での差異です。検索結果の上部に表示されるAI Overview機能はテストに失敗しましたが、Googleの独立したフラグシップモデルであるGemini 3は正しく質問に答えました。

この不一致は、AI Overview機能の特定のアーキテクチャや最適化に関する疑問を投げかけます。Geminiのようなチャットボットとの直接的な対話とは異なり、AI Overviewは検索要約向けに最適化された特殊なバージョンのモデル(Search Generative Experience(SGE))を使用して生成されているように見えます。検索結果の要約(またはretrieval-augmented generation(retrieval-augmented generation, RAG))の最適化プロセスで、モデルの基本的な推論能力が損なわれた可能性があります。

この乖離の潜在的な原因には以下が含まれます:

  • レイテンシ最適化(Latency Optimization): 検索モデルは速度のためにGeminiを小型化・蒸留したバージョンである可能性があり、その結果、推論の深さを犠牲にしている。
  • 矛盾するソースデータ: AI Overviewはウェブコンテンツのインデックスに大きく依存している。もしモデルが古いコンテンツをインデックスしたり、「将来」に関する議論を「現在の」事実と混同したりすれば、年表を幻覚する可能性がある。
  • プロンプトエンジニアリング: AI Overviewが「現在の日付」を解釈する方法を支配するシステム指示が、独立したGeminiインターフェースのものより堅牢でない可能性がある。

AI検索における信頼の欠如

この出来事は、GoogleのAI検索統合にとって公的な恥のリストをさらに増やすものです。過去には、このシステムがチーズが滑らないようにピザに接着剤を塗ることを勧めたり、「you can't lick a badger twice」が本当の慣用句だと主張したりしたことがありました。これらの例は多くの場合、AIが風刺的なコンテンツ(Redditのゴミ投稿のような)を取り込んだことに起因するとされましたが、2027年のカレンダー誤りは純粋な論理の失敗です。

データ分析や迅速な事実確認のためにAIを頼りにする専門家や企業にとって、これらの誤りは単なる滑稽な不具合以上のものです。それらは信頼性に関する赤信号です。もしシステムが2026年の次に2027年が来ることを確実に判断できないなら、複雑な財務報告、法的タイムライン、または歴史的な時系列の要約能力は疑問視されます。

AI業界にとっての主要な示唆は次の通りです:

  1. 検証システム: 表示前にAIの出力を数学やカレンダーのような厳密な論理ルールと突き合わせる二次検証レイヤー(検証器)が緊急に必要である。
  2. ユーザーの懐疑心: これらの誤りが続くと、「AIの回答」に対するユーザーの信頼は頭打ちになるか低下し、従来のソースベースの検証へ流れが戻る可能性がある。
  3. モデル蒸留のリスク: ガードレールが不十分なまま大量市場向けに小型で安価なモデルを使用することのリスクが明らかになる。

結論:汎用人工知能(AGI)への道は依然として険しい

「2027年は来年ではない」という幻覚は、汎用人工知能(Artificial General Intelligence, AGI)に関する誇大宣伝にもかかわらず、現行システムが依然として常識を欠いていることを痛烈に思い起こさせます。これらのシステムは、司法試験に合格したりコードを書いたりするほど統計的に優れていますが、年の順序のように人間の子どもにとっても生得的な概念でつまずくことがあります。

Creati.aiの読者やAI専門家にとって、これは人間を介在させるワークフロー(Human-in-the-loop, HITL)の重要性に関するケーススタディです。AIモデルがカレンダー年の順序のような現実の基本公理を完璧に扱えるようになるまでは、彼らの出力に盲目的に依存するのは依然としてリスクの高い提案です。私たちが2026年をさらに進むにつれて、アルゴリズムが2028年の到来に先立ってカレンダーに追いつくことを願うしかありません—あるいはGoogleのAIが呼ぶところの「来年(next year)」までに。

フィーチャー