
汎用的なアシスタントとしての人工知能(AI:Artificial Intelligence)の魅力は、ヘルスケアという極めて重要な領域にまで及んでおり、何百万人ものユーザーが迅速な医療回答を求めて大規模言語モデル(LLMs:Large Language Models)を利用しています。しかし、オックスフォード大学(University of Oxford)が主導し、*ネイチャー・メディシン(Nature Medicine)*誌に掲載された画期的な研究は、厳しい警告を発しています。医療診断をAIチャットボットに頼ることは、効果がないだけでなく、潜在的に危険であるという内容です。
オックスフォード・インターネット研究所とナフィールド・プライマリ・ケア保健科学部門によって行われたこの研究は、AIの理論的な能力と、現実世界の健康シナリオにおける実用的な安全性との間に大きな隔たりがあることを明らかにしました。AIモデルは標準化された医師免許試験で頻繁に満点に近い成績を収めていますが、実行可能な健康上のアドバイスを求める一般人と対話する際、そのパフォーマンスは驚くほど低下します。
長年、テック企業は自社のフラッグシップモデルの医療的習熟度を宣伝し、米国医師免許試験(USMLE:US Medical Licensing Exam)などのベンチマークでほぼ満点に近いスコアを獲得していることをしばしば引用してきました。これらの指標は高いレベルの臨床知識を示唆していますが、オックスフォード大学の研究はこの推論における重大な欠陥を指摘しています。多肢選択式の試験に合格することは、現実の環境で患者をトリアージすることとは根本的に異なります。
筆頭著者のアンドリュー・ビーン(Andrew Bean)氏とそのチームは、AIの生のデータ検索能力だけでなく、「人間とAIの相互作用」をテストするように研究を設計しました。その結果、チャットボットの対話的な性質が、標準化されたテストでは捉えきれない変数を導入していることが示唆されました。ユーザーが日常的な言葉で症状を説明したり、重要な文脈を提供しなかったりすると、AIは適切なフォローアップの質問をすることに苦労し、結果として曖昧、無関係、あるいは事実に基づかない不正確なアドバイスにつながることが多いのです。
研究のシニアオーサーであるアダム・マーディ(Adam Mahdi)博士は、AIは膨大な量の医療データを保有しているものの、そのインターフェースがユーザーによる有用で安全なアドバイスの抽出を妨げていると強調しました。この研究は、現在の消費者向けAIツールが「ポケットの中の医者」として機能する準備ができているという神話を事実上打ち砕きました。
ヘルスケアにおけるAIの安全性を厳密に評価するため、研究者らは英国を拠点とする約1,300人の参加者を対象とした対照実験を実施しました。この研究は「症状をググる(Googling symptoms)」という一般的な行動を再現することを目的としていましたが、検索エンジンの代わりに高度なAIチャットボットを使用しました。
参加者には、外出後のひどい頭痛や新米の母親の疲労といった一般的な疾患から、胆石のようなより深刻な状態まで、10種類の異なる医療シナリオが提示されました。参加者はランダムに以下の4つのグループのいずれかに割り当てられました:
目的は2つありました。1つ目は、AIの支援に基づいてユーザーが病状を正しく特定できるかどうかを確認すること。2つ目は、正しい行動方針(例:「救急車を呼ぶ」、「かかりつけ医(GP)を受診する」、「セルフケアをする」など)を特定できるかどうかを判断することでした。
結果は、医療への即時のAI導入を支持する人々にとって厳しいものでした。研究の結果、AIチャットボットの支援を受けたユーザーのパフォーマンスは、標準的な検索エンジンを使用したユーザーと変わらないことが判明しました。
主要な統計結果:
平凡な正確性よりも懸念されるのは、アドバイスの矛盾です。LLMsは確率的な性質を持ち、事実に基づいた推論ではなく統計的な可能性に基づいてテキストを生成するため、言い回しのわずかな違いによって、同じ質問に対して異なる回答を提供することがよくありました。
以下の表は、研究中に観察された具体的な失敗例を示しており、医療の現実とAIの出力を対比させています:
表:医療トリアージにおけるAIの失敗例
| シナリオ | 医療の現実 | AIチャットボットの回答 / エラー |
|---|---|---|
| くも膜下出血(Subarachnoid Hemorrhage) (脳内出血) |
直ちに入院が必要な 生命に関わる緊急事態。 |
ユーザーA: 「暗い部屋で横になる」よう指示された (致命的な遅れを招く可能性)。 ユーザーB: 緊急治療を受けるよう正しく指示された。 |
| 緊急連絡先 | 英国に住むユーザーには 現地の緊急通報用電話番号(999)が必要。 |
米国の電話番号の一部や オーストラリアの緊急通報番号(000)を提供。 |
| 診断の確実性 | 症状には医師による 身体診察が必要。 |
高い自信を持って診断を捏造し、 ユーザーにリスクを過小評価させた。 |
| 新米の母親の疲労 | 貧血、甲状腺の問題、 または産後うつ病の可能性。 |
潜在的な生理学的要因を無視し、 一般的な「ウェルネス」のコツを提案。 |
この研究で最も衝撃的なエピソードの一つは、脳の表面での出血によって引き起こされる脳卒中の一種である「くも膜下出血」の症状を説明する同じシナリオを与えられた2人の参加者に関するものでした。この状態は直ちの医療介入を必要とします。
ユーザーがどのようにプロンプトを構成したかによって、チャットボットは危険なほど矛盾したアドバイスを提供しました。一人のユーザーには緊急の助けを求めるよう正しくアドバイスされましたが、もう一人のユーザーには単に暗い部屋で休むように指示されました。現実のシナリオであれば、後者のアドバイスに従うことは死や永久的な脳損傷を招く可能性があります。
この研究の筆頭医療従事者であるレベッカ・ペイン(Rebecca Payne)博士は、これらの結果を「危険」であると表現しました。彼女は、チャットボットが状況の緊急性を認識できないことが多いと指摘しました。最悪のシナリオを最初に除外するように訓練されている人間の医師(鑑別診断(Differential diagnosis)として知られるプロセス)とは異なり、LLMsは症状に対して統計的に最も可能性が高い(そしてしばしば良性の)説明に飛びつくことが多く、臨床医なら警戒する「レッドフラッグ(Red flag)」信号を無視してしまいます。
さらに、AIが自信満々に誤った情報を主張する「ハルシネーション(Hallucination)」の問題は、物流的な詳細においても顕著でした。英国ベースのユーザーに対して、オーストラリアの緊急通報番号にかけるよう提案することは、単に役に立たないだけでなく、パニックを引き起こす医療危機において、不必要な混乱と遅れを招きます。
オックスフォード大学の研究者たちの合意は明確です。現世代のLLMsは、患者への直接的な診断目的には適していません。
「あらゆる誇大広告にもかかわらず、AIは医師の役割を担う準備がまだできていません」とペイン博士は述べています。彼女は、大規模言語モデルに症状について尋ねることは、誤診や、緊急の助けが必要な時の認識の失敗につながる可能性があることを強く認識するよう患者に促しました。
この研究は、ユーザーの行動にも光を当てました。研究者らは、多くの参加者がAIに対して効果的にプロンプトを出す方法を知らないことを観察しました。構造化された医療面接(医師が可能性を絞り込むために特定の質問をする場)がない場合、ユーザーは不完全な情報を提供しがちです。AIは、明確化を求めるのではなく、不完全なデータに基づいて単に「推測」してしまい、それが観察された低い正確性に繋がりました。
この研究は、デジタルヘルス業界にとって重要な現実確認(リアリティ・チェック)となります。事務作業の支援、ノートの要約、または訓練を受けた臨床医によるデータ分析の支援におけるAIの可能性は依然として高いものの、消費者向けの「AIドクター」モデルは、法的責任と安全性のリスクに満ちています。
今後の展望:
検索エンジンと生成AIの境界が曖昧になる中で、オックスフォード大学の研究は決定的な教訓を提示しています。健康に関しては、正確性は単なる指標ではなく、生と死に関わる問題です。AIが制御されていない環境で一貫した安全な推論を実証できるようになるまで、「AIドクター」は一次診療の提供者ではなく、実験的な概念に留めておくべきでしょう。