MITの研究者が過度に自信のある大規模言語モデルを識別し幻覚を検出する新手法を開発
MITの研究者は、異なる開発者のLLM群(アンサンブル)にわたるモデルの出力を比較する総不確実性指標を導入した。これにより、既存の自己一貫性(self-consistency)手法よりも過度に自信のある予測や幻覚的な予測をより正確に検出できる。
MITの研究者は、異なる開発者のLLM群(アンサンブル)にわたるモデルの出力を比較する総不確実性指標を導入した。これにより、既存の自己一貫性(self-consistency)手法よりも過度に自信のある予測や幻覚的な予測をより正確に検出できる。
UCサンディエゴとMITの研究者らがScience誌に画期的な研究を発表しました。内部の概念表現を直接操作することでAIモデルをスケール可能に制御・監視する手法を示し、安全性の脆弱性と能力向上の両方を明らかにしています。
MITの研究者がコドン最適化のための言語モデルを開発し、トラスツズマブを含むタンパク質生産を25~300%向上させた。研究はPNASに掲載された。
MITのジム・コリンズ教授が先駆的な研究を主導。生成AIを用いて、薬剤耐性病原体を標的とするプログラム可能な抗菌薬を設計する。
MITの研究者らが、脳幹のMRI画像で8つの異なる神経繊維束を自動でセグメント化する画期的なAI搭載ソフトウェアを開発しました。
MIT CSAILはEnCompassフレームワークを発表しました。これによりAIエージェントがLLMの出力を遡って最適化でき、コード量を82%削減しつつ精度を15〜40%向上させます。
MITのエンジニアはDiffSynを開発しました。DiffSynは拡散ベースの生成AIモデルで、23,000件の合成レシピで訓練され、新材料を1分以内に作るための有望な経路を提案し、実験と発見のタイムラインを劇的に短縮します。
MITの新しい学際的コースは、AIシステムにおける合理性を検証し、次世代の研究者のために計算機科学と哲学を融合します。
MITの研究者は、最も高性能な機械学習モデルが新しいデータ環境に適用されると最悪の性能を示すことがあり、医療分野のAIやその他の重要な用途で発生する偽の相関から生じる隠れたリスクを明らかにしていると示しています。