MITの研究者が過度に自信のある大規模言語モデルを識別し幻覚を検出する新手法を開発
MITの研究者は、異なる開発者のLLM群(アンサンブル)にわたるモデルの出力を比較する総不確実性指標を導入した。これにより、既存の自己一貫性(self-consistency)手法よりも過度に自信のある予測や幻覚的な予測をより正確に検出できる。
MITの研究者は、異なる開発者のLLM群(アンサンブル)にわたるモデルの出力を比較する総不確実性指標を導入した。これにより、既存の自己一貫性(self-consistency)手法よりも過度に自信のある予測や幻覚的な予測をより正確に検出できる。