Mount Sinai 研究顯示大型 AI 語言模型容易相信醫療錯誤資訊
Mount Sinai 的研究顯示,AI 大型語言模型在 32% 至 46% 的情況下會相信醫療錯誤資訊,尤其在以專家建議的方式呈現時。
Mount Sinai 的研究顯示,AI 大型語言模型在 32% 至 46% 的情況下會相信醫療錯誤資訊,尤其在以專家建議的方式呈現時。
牛津大學的研究發現,AI 聊天機器人提供不一致的醫療建議,使用者因此難以辨別可信的健康資訊。
哈佛研究人員在《Nature Neuroscience》發表 BrainIAC 基礎模型,能從 48,900 筆 MRI 影像預測失智、中風和癌症。
猶他州與健康科技新創公司Doctronic合作,推出一套AI系統,該系統在執行臨床評估後將自動續發約200種常見藥物。此舉引發關於FDA監管權限的關鍵問題,因為Doctronic聲稱其AI醫師不需要取得監管批准。
這款深度學習工具提供前所未有的耳蝸毛細胞三維可視化,推動聽力喪失治療研究進展。
麻省理工學院的研究人員示範了在新的資料環境中,表現最佳的機器學習模型可能會變成表現最差,揭示了醫療人工智慧及其他關鍵應用中來自虛假相關性的潛在風險。