Mount Sinai 研究顯示大型 AI 語言模型容易相信醫療錯誤資訊Mount Sinai 的研究顯示,AI 大型語言模型在 32% 至 46% 的情況下會相信醫療錯誤資訊,尤其在以專家建議的方式呈現時。
Yann LeCun 警告 AI 產業走錯路,並離開 MetaAI 先驅 Yann LeCun 已離開 Meta,並警告 AI 產業過度關注大型語言模型(LLM),正朝錯誤方向發展。他主張轉向預測式世界模型。