Investigadores del MIT desarrollan nuevo método para identificar grandes modelos de lenguaje excesivamente confiados y señalar alucinaciones
Investigadores del MIT introdujeron una métrica de incertidumbre total que compara las salidas de un modelo a través de un conjunto de LLM de distintos desarrolladores, detectando con mayor precisión predicciones excesivamente confiadas y alucinaciones que los métodos de self-consistency existentes.


