マウントサイナイの研究が示す、AI大規模言語モデルは医療の誤情報に影響されやすい
マウントサイナイの研究は、AIの大規模言語モデルが医療に関する誤情報を32〜46%の確率で信じることを示しており、特にそれが専門家の助言として提示された場合に顕著です。
マウントサイナイの研究は、AIの大規模言語モデルが医療に関する誤情報を32〜46%の確率で信じることを示しており、特にそれが専門家の助言として提示された場合に顕著です。
AIの先駆者ヤン・ルカンはメタを離れ、AI業界が大規模言語モデル(LLM)に過度に注力しており誤った方向に向かっていると警告した。彼は予測型の世界モデルへの転換を提唱している。