Des chercheurs du MIT développent une nouvelle méthode pour identifier les grands modèles de langage trop sûrs d'eux et signaler les hallucinations
Des chercheurs du MIT ont introduit une métrique d'incertitude totale qui compare les sorties d'un modèle à travers un ensemble de LLM provenant de différents développeurs, détectant plus précisément les prédictions trop sûres et les hallucinations que les méthodes de self-consistency existantes.


