Studie des Mount Sinai zeigt: KI-Großsprachermodelle sind anfällig für medizinische Fehlinformationen
Forschungen des Mount Sinai zeigen, dass KI-LLMs medizinische Fehlinformationen in 32–46 % der Fälle glauben, insbesondere wenn diese als Expertenrat präsentiert werden.


