Pesquisadores do MIT desenvolvem novo método para identificar grandes modelos de linguagem excessivamente autoconfiantes e sinalizar alucinações
Pesquisadores do MIT introduziram uma métrica de incerteza total que compara as saídas de um modelo em um conjunto (ensemble) de LLMs de diferentes desenvolvedores, detectando com mais precisão previsões excessivamente autoconfiantes e alucinações do que os métodos de self-consistency existentes.


