マウントサイナイの研究が示す、AI大規模言語モデルは医療の誤情報に影響されやすい
マウントサイナイの研究は、AIの大規模言語モデルが医療に関する誤情報を32〜46%の確率で信じることを示しており、特にそれが専門家の助言として提示された場合に顕著です。
マウントサイナイの研究は、AIの大規模言語モデルが医療に関する誤情報を32〜46%の確率で信じることを示しており、特にそれが専門家の助言として提示された場合に顕著です。
オックスフォード大学の研究は、AIチャットボットが一貫性のない医療アドバイスを提供しており、ユーザーが信頼できる医療情報を見分けることを困難にしていると報告しています。
ハーバードの研究者がNature NeuroscienceにBrainIACの基盤モデルを発表し、48,900件のMRIスキャンから認知症、脳卒中、がんを予測します。
ユタ州はヘルステックのスタートアップDoctronicと提携し、臨床評価を行った後に約200種類の一般的な薬を自律的に更新するAIシステムを立ち上げました。この取り組みは、Doctronicが自社のAI医師は規制当局の承認を必要としないと主張しているため、FDAの監督権限に関する重要な疑問を投げかけています。
このディープラーニングツールは蝸牛の有毛細胞を前例のない3Dで可視化し、難聴治療の研究を前進させます。
MITの研究者は、最も高性能な機械学習モデルが新しいデータ環境に適用されると最悪の性能を示すことがあり、医療分野のAIやその他の重要な用途で発生する偽の相関から生じる隠れたリスクを明らかにしていると示しています。