MIT-Forscher entwickeln neue Methode, um übermäßig selbstsichere große Sprachmodelle zu identifizieren und Halluzinationen zu kennzeichnen
Forscher am MIT haben eine Gesamtunsicherheitsmetrik eingeführt, die die Ausgaben eines Modells über ein Ensemble von LLMs verschiedener Entwickler vergleicht und übermäßig selbstsichere sowie halluzinierte Vorhersagen genauer erkennt als bestehende Self-Consistency-Methoden.


