
In einem wegweisenden Schritt für die pharmazeutische Industrie haben die US-amerikanische Food and Drug Administration (FDA) und die Europäische Arzneimittel-Agentur (EMA) gemeinsam die ersten 10 Leitprinzipien für eine gute KI-Praxis (Good AI Practice) angekündigt, die speziell auf die Arzneimittelentwicklung (Drug Development) zugeschnitten sind. Diese Zusammenarbeit, die am 14. Januar 2026 veröffentlicht wurde, markiert einen entscheidenden Schritt in Richtung globaler regulatorischer Konvergenz und erfolgt nur wenige Monate bevor das umfassende EU-KI-Gesetz (EU AI Act) im August 2026 in vollem Umfang in Kraft tritt.
Für Akteure im KI-gesteuerten Pharmasektor ist diese Ankündigung mehr als nur eine Orientierungshilfe; sie ist ein strategischer Fahrplan. Da künstliche Intelligenz (KI) zunehmend in den Lebenszyklus von Arzneimitteln eingebettet wird – von der Molekülentdeckung bis zur Pharmakovigilanz –, war die Notwendigkeit eines harmonisierten regulatorischen Rahmens noch nie so dringlich. Die gemeinsamen Prinzipien zielen darauf ab, Innovationen zu fördern und gleichzeitig sicherzustellen, dass Sicherheit, Wirksamkeit und Qualität unangetastet bleiben.
Diese Entwicklung kommt zu einem entscheidenden Zeitpunkt. Mit den strengen Anforderungen des EU-KI-Gesetzes (EU AI Act) für „hochriskante“ KI-Systeme, die am 2. August 2026 in Kraft treten, stehen Pharmaunternehmen, die transatlantisch tätig sind, unter immensem Druck, ihre Technologien an die sich entwickelnden rechtlichen Standards anzupassen. Die Abstimmung zwischen der FDA und der EMA bietet einen dringend benötigten Puffer und stellt ein gemeinsames Lexikon sowie Erwartungen bereit, die Entwicklern helfen können, die komplexe Schnittstelle zwischen Technologie und Regulierung zu navigieren.
Die zehn Prinzipien, die vom Center for Drug Evaluation and Research (CDER) der FDA, dem Center for Biologics Evaluation and Research (CBER) und der EMA herausgegeben wurden, sind so konzipiert, dass sie über den gesamten Arzneimittellebenszyklus hinweg Anwendung finden. Sie betonen einen „risikobasierten“ und „menschenzentrierten“ Ansatz und signalisieren, dass die Regulierungsbehörden keine „Black-Box“-Algorithmen in kritischen Entscheidungsprozessen ohne robuste Aufsicht akzeptieren werden.
Die folgende Tabelle skizziert die zehn Prinzipien, ihren Kernfokus und die praktischen Auswirkungen für Arzneimittelentwickler:
Tabelle 1: Die 10 FDA-EMA-Leitprinzipien für KI in der Arzneimittelentwicklung (Drug Development)
| Name des Prinzips | Kernfokus | Operationale Anforderung |
|---|---|---|
| Menschenzentriert durch Design (Human-Centric by Design) | Ethische Ausrichtung und menschliche Aufsicht | KI muss den Patienteninteressen dienen; eine menschliche Überprüfung ist für kritische Ergebnisse obligatorisch. |
| Risikobasierter Ansatz | Verhältnismäßige Validierung und Aufsicht | Die Validierungsbemühungen müssen dem Risikoniveau des Modells und dem potenziellen Schaden für den Patienten entsprechen. |
| Einhaltung von Standards | Regulatorische und technische Konformität | Modelle müssen GxP, ISO-Standards und relevanten regionalen Gesetzen (z. B. dem EU-KI-Gesetz) folgen. |
| Klarer Nutzungskontext | Definierte operative Grenzen | Entwickler müssen genau angeben, wann, wo und wie das KI-Modell verwendet werden soll. |
| Multidisziplinäre Expertise | Funktionsübergreifende Zusammenarbeit | Teams müssen Datenwissenschaftler, Kliniker und Regulierungsexperten umfassen. |
| Daten-Governance (Data Governance) und Dokumentation | Rückverfolgbarkeit und Integrität | Datenherkunft, Qualität und Bias-Management müssen streng dokumentiert werden. |
| Modelldesign und -entwicklung | Bewährte Verfahren in der Softwareentwicklung | Der Code muss robust, reproduzierbar und auf Interpretierbarkeit ausgelegt sein. |
| Risikobasierte Leistungsbewertung | Kontinuierliche Testmetriken | Metriken müssen reale klinische Risiken widerspiegeln, nicht nur die statistische Genauigkeit. |
| Lebenszyklusmanagement (Life Cycle Management) | Überwachung nach dem Einsatz | Eine kontinuierliche Überwachung auf Daten-Drift und Leistungsabfall ist unerlässlich. |
| Klare, wesentliche Informationen | Transparenz für Endnutzer | Nutzer müssen wissen, dass sie mit KI interagieren, und deren Einschränkungen verstehen. |
Menschenzentrierung und Ethik
Das erste Prinzip, „Menschenzentriert durch Design“, unterstreicht eine grundlegende regulatorische Haltung: KI ist ein Werkzeug, um das menschliche Urteilsvermögen in der Medizin zu ergänzen, nicht zu ersetzen. Ob es um das Design einer klinischen Studie oder die Analyse von Sicherheitsdaten geht, die letztendliche Verantwortung liegt bei menschlichen Experten. Dieses Prinzip adressiert direkt Bedenken hinsichtlich algorithmischer Voreingenommenheit (Bias) und die ethischen Implikationen der Automatisierung von Entscheidungen, die die Gesundheit der Patienten betreffen.
Das risikobasierte Paradigma
Die Prinzipien 2 und 8 („Risikobasierter Ansatz“ und „Risikobasierte Leistungsbewertung“) sind vielleicht die bedeutendsten für den Industriebetrieb. Sie legen nahe, dass die Regulierungsbehörden keine Einheitslösung für die Beweislast anwenden werden. Ein einfaches KI-Werkzeug zur Optimierung der internen Logistik erfordert weitaus weniger Validierung als ein Modell der generativen KI (Generative AI), das zur Synthese von Kontrollarm-Daten für eine klinische Studie verwendet wird. Dieser abgestufte Ansatz ermöglicht Flexibilität, erfordert jedoch von den Unternehmen anspruchsvolle interne Risikoklassifizierungsrahmen.
Datenintegrität und Governance
Mit Prinzip 6 bekräftigen die Behörden das Mantra „Garbage in, Garbage out“. Im Kontext der Arzneimittelentwicklung ist dies von entscheidender Bedeutung. Echtzeitdaten (Real-World Data, RWD) und historische Daten aus klinischen Studien enthalten oft versteckte Verzerrungen oder Inkonsistenzen. Die Anforderung an eine robuste Daten-Governance bedeutet, dass Pharmaunternehmen massiv in eine Dateninfrastruktur investieren müssen, die die Rückverfolgbarkeit von der Rohquelle bis zum endgültigen Modellergebnis gewährleistet.
Während die FDA-EMA-Prinzipien als „Soft Law“ oder Leitfaden fungieren, stellt das EU-KI-Gesetz (EU AI Act) ein „Hard Law“ mit erheblichen Strafen bei Nichteinhaltung dar. Der Zeitpunkt der FDA-EMA-Ankündigung ist strategisch gewählt und schlägt eine Brücke zur vollständigen Umsetzung des Gesetzes im August 2026.
Am 2. August 2026 wird der Großteil der Regeln des EU-KI-Gesetzes bezüglich „hochriskanter“ KI-Systeme in Kraft treten. Während viele pharmazeutische KI-Anwendungen (je nach spezifischem Anwendungsfall und falls sie als Sicherheitskomponenten von Medizinprodukten gelten) außerhalb der strengsten Definitionen für „Hochrisiko“ liegen könnten, verschiebt sich die Regulierungslandschaft hin zu einer strengeren Kontrolle.
Die gemeinsamen Prinzipien stimmen eng mit den Anforderungen des EU-KI-Gesetzes überein, insbesondere in Bezug auf:
Diese Abstimmung verringert die Marktfragmentierung. Ein globales Pharmaunternehmen kann nun ein KI-Modell für eine klinische Studie entwickeln, das sowohl die Erwartungen der FDA an die Beweisgenerierung als auch die Anforderungen der EMA unter dem neuen europäischen Rahmen erfüllt, was die Notwendigkeit regionalspezifischer Modell-Retrainings reduziert.
Für die pharmazeutische Industrie signalisiert diese Ankündigung das Ende der „Wild-West“-Ära des KI-Experimentierens. Innovation muss nun mit strenger Dokumentation und Validierung gekoppelt sein.
Die Zusammenarbeit zwischen CBER, CDER und der EMA ist ein positives Signal für die Branche. Abweichende Regulierungen sind seit langem ein Schmerzpunkt für globale Arzneimittelentwicklungsprogramme. Durch die Festlegung gemeinsamer Werte ebnen die Behörden den Weg für potenzielle zukünftige Vereinbarungen, wie die gegenseitige Anerkennung von Validierungsdaten für KI-Modelle.
Trotz der durch diese Prinzipien geschaffenen Klarheit bleiben Herausforderungen bestehen. Die Interpretation von „Interpretierbarkeit“ (Prinzip 7) ist oft subjektiv. Deep-Learning-Modelle, die oft als „Black Boxes“ bezeichnet werden, sind bekanntlich schwer zu erklären. Wie die Regulierungsbehörden die hohe Leistung von nicht-interpretierbaren Modellen gegen die Anforderung der Erklärbarkeit abwägen werden, bleibt ein wichtiger Bereich, den es zu beobachten gilt.
Darüber hinaus wird das Prinzip der „Daten-Governance“ angesichts der weiteren Entwicklung der generativen KI auf die Probe gestellt, insbesondere in Bezug auf das Urheberrecht und die Verwendung synthetischer Daten. Die Behörden haben anerkannt, dass diese Prinzipien ein „erster Schritt“ sind und dass weitere, detailliertere Leitfäden entwickelt werden, wenn die Technologie reift.
Mit Blick auf den Rest des Jahres 2026 erwarten wir, dass die FDA und die EMA spezifische Fallstudien oder Musterbeispiele veröffentlichen werden, wie diese Prinzipien auf bestimmte Szenarien Anwendung finden, wie etwa KI in der Pharmakovigilanz oder KI-gesteuerte Biomarker-Entdeckung.
Die Veröffentlichung der gemeinsamen KI-Prinzipien (AI principles) von FDA und EMA ist ein Wendepunkt für die Arzneimittelentwicklung. Sie legitimiert den Einsatz von KI in der hochriskanten medizinischen Forschung und etabliert gleichzeitig die notwendigen Leitplanken zum Schutz der öffentlichen Gesundheit. Während die Branche auf die Umsetzung des EU-KI-Gesetzes im August 2026 zusteuert, bieten diese Prinzipien einen wichtigen Kompass.
Für Creati.ai und die breitere Gemeinschaft der KI-Innovatoren im Gesundheitswesen ist die Botschaft klar: Die Zukunft gehört denen, die mutig innovieren und gleichzeitig die strengen Standards für Sicherheit und Transparenz einhalten können. Die Ära der regulierten KI in der Pharmaforschung ist offiziell angebrochen.