
Eine bahnbrechende Studie, die gestern von Forschenden des Massachusetts Institute of Technology (MIT) veröffentlicht wurde, stellt ein grundlegendes Prinzip der Bewertung im Maschinellen Lernen (machine learning) infrage und zeigt, dass Modelle, die auf aggregierten Metriken weithin als „state-of-the-art“ gelten, bei der Anwendung in neuen Umgebungen katastrophal versagen können.
Die Forschung, die auf der Konferenz Neural Information Processing Systems (NeurIPS 2025) präsentiert und am 20. Januar 2026 auf MIT News veröffentlicht wurde, offenbart eine kritische Verwundbarkeit in der derzeitigen Benchmark-Praxis von KI (AI). Das Team unter der Leitung von Associate Professor Marzyeh Ghassemi und Postdoc Olawale Salaudeen demonstrierte, dass leistungsstarke Modelle häufig auf Scheinkorrelationen (spurious correlations) — versteckte Abkürzungen in den Daten — zurückgreifen, was sie in realen Anwendungen wie medizinischer Diagnostik und der Erkennung von Hate Speech (hate speech detection) unzuverlässig und potenziell gefährlich macht.
Jahrelang ging die KI-Gemeinschaft von der Annahme „accuracy-on-the-line“ aus. Dieses Prinzip besagt, dass wenn eine Reihe von Modellen auf Basis ihrer Leistung auf einem Trainingsdatensatz (in-distribution) vom besten bis zum schlechtesten gerankt wird, diese Rangfolge auch erhalten bleibt, wenn die Modelle auf einen neuen, ungesehenen Datensatz (out-of-distribution) angewendet werden.
Die Ergebnisse des MIT-Teams haben diese Annahme faktisch zerschlagen. Ihre Analyse zeigt, dass eine hohe durchschnittliche Genauigkeit (accuracy) oft schwerwiegende Ausfälle in spezifischen Teilpopulationen kaschiert. In einigen der erschreckendsten Fälle erwies sich das auf den ursprünglichen Trainingsdaten als „best“ identifizierte Modell auf 6 bis 75 Prozent der neuen Daten als das schlechteste Modell.
„Wir zeigen, dass selbst wenn man Modelle mit großen Datenmengen trainiert und das beste Durchschnittsmodell auswählt, dieses ‚beste Modell‘ in einer neuen Umgebung das schlechteste Modell sein könnte“, sagte Marzyeh Ghassemi, Principal Investigator am Laboratory for Information and Decision Systems (LIDS).
Die Implikationen dieser Ergebnisse sind im Gesundheitswesen am gravierendsten, wo algorithmische Zuverlässigkeit über Leben und Tod entscheiden kann. Die Forschenden untersuchten Modelle, die darauf trainiert wurden, Pathologien aus Röntgenaufnahmen des Brustkorbs zu diagnostizieren — eine Standardanwendung der Computervision (computer vision) in der Medizin.
Während die Modelle im Durchschnitt robust erschienen, zeigte die detaillierte Analyse, dass sie sich eher auf Scheinkorrelationen (spurious correlations) als auf echte anatomische Merkmale stützten. Beispielsweise könnte ein Modell lernen, bestimmte radiographische Markierungen eines Krankenhauses mit einer höheren Krankheitsprävalenz zu assoziieren, anstatt die Pathologie selbst zu erkennen. Bei Anwendung auf Röntgenaufnahmen eines anderen Krankenhauses ohne diese spezifischen Markierungen brach die Vorhersagefähigkeit des Modells zusammen.
Wesentliche Erkenntnisse in der medizinischen Bildgebung:
Um diesem systemischen Versagen zu begegnen, entwickelte das Forscherteam einen neuartigen algorithmischen Ansatz namens OODSelect (Out-of-Distribution Select). Dieses Werkzeug ist darauf ausgelegt, Modelle gezielt zu stresstesten, indem es die Datenuntergruppen identifiziert, in denen die Annahme „accuracy-on-the-line“ zusammenbricht.
Erstautor Olawale Salaudeen betonte, dass das Ziel darin bestehe, Modelle dazu zu zwingen, kausale Zusammenhänge zu lernen statt bequemer statistischer Abkürzungen. „Wir wollen, dass Modelle lernen, sich die anatomischen Merkmale des Patienten anzusehen und anschließend eine Entscheidung darauf zu stützen“, erklärte Salaudeen. „Aber in Wahrheit kann alles, was in den Daten mit einer Entscheidung korreliert, vom Modell verwendet werden.“
OODSelect arbeitet, indem es die „am stärksten fehlkalkulierten Beispiele“ separiert, sodass Entwickler zwischen schwer zu klassifizierenden Randfällen und echten Ausfällen durch Scheinkorrelationen unterscheiden können.
Vergleich der Bewertungsmethoden:
| Metric Type | Traditional Aggregated Evaluation | OODSelect Evaluation |
|---|---|---|
| Fokus | Durchschnittliche Genauigkeit über den gesamten Datensatz | Leistung in spezifischen, verwundbaren Teilpopulationen |
| Annahme | Beibehaltung der Rangfolge (Accuracy-on-the-line) | Störung der Rangfolge (Der Beste kann der Schlechteste sein) |
| Risikodetektion | Niedrig (verdeckt Ausfälle in Minderheitsgruppen) | Hoch (macht Scheinkorrelationen sichtbar) |
| Ergebnis | Optimiert für allgemeine Benchmarks | Optimiert für Robustheit und Zuverlässigkeit |
| Anwendung | Initiale Modellauswahl | Sicherheitsprüfung vor der Bereitstellung |
Obwohl die Studie stark die medizinische Bildgebung referenzierte, validierten die Forschenden ihre Ergebnisse in weiteren kritischen Bereichen, darunter Krebs-Histopathologie (cancer histopathology) und die Erkennung von Hassrede (hate speech detection). In Aufgaben der Textklassifikation (text classification) neigen Modelle häufig dazu, sich an bestimmte Schlüsselwörter oder sprachliche Muster zu hängen, die in den Trainingsdaten mit Toxizität korrelieren, aber das Nuancierte von Hassrede in verschiedenen Online-Communities oder Kontexten nicht erfassen.
Dieses Phänomen legt nahe, dass die Vertrauenswürdigkeitskrise in der KI nicht auf hochriskante physische Domänen beschränkt ist, sondern intrinsisch damit zusammenhängt, wie Deep Learning (deep learning) Korrelation vs. Kausalität verarbeitet.
Die Veröffentlichung dieser Forschung markiert einen Wendepunkt für KI-Sicherheitsstandards. Das MIT-Team hat den Code für OODSelect veröffentlicht und spezifische Datenteilmengen identifiziert, um der Gemeinschaft zu helfen, robustere Benchmarks zu entwickeln.
Die Forschenden empfehlen, dass Organisationen, die Maschinenlernmodelle (machine learning models) einsetzen — insbesondere in regulierten Branchen — über aggregierte Statistiken hinausgehen. Stattdessen plädieren sie für einen rigorosen Evaluationsprozess, der aktiv nach den Teilpopulationen sucht, in denen ein Modell versagt.
Da KI-Systeme (AI systems) zunehmend in kritische Infrastrukturen integriert werden, verschiebt sich die Definition eines „erfolgreichen“ Modells. Es reicht nicht mehr aus, die höchste Punktzahl auf einer Bestenliste (leaderboard) zu erreichen; der neue Standard für Exzellenz verlangt, dass ein Modell für jeden Nutzer in jeder Umgebung zuverlässig ist, unabhängig von Verteilungsverschiebungen.