
Die Schnittstelle zwischen Künstlicher Intelligenz (artificial intelligence) und föderaler Governance hat einen Wendepunkt erreicht, als die Trump-Administration Pläne bekanntgab, Googles Gemini-KI für die Ausarbeitung bundesweiter Vorschriften einzusetzen. In einem von Verantwortlichen als „Revolution“ in der Regelsetzung bezeichneten Schritt positioniert sich das U.S. Department of Transportation (DOT) als Vorreiter dieses automatisierten Wandels und verfolgt das Ziel, die für die Erstellung komplexer Regulierungsrahmen benötigte Zeit drastisch zu verkürzen.
Diese Initiative, die einen erheblichen Bruch mit traditionellen bürokratischen Prozessen markiert, will die generativen Fähigkeiten von Large Language Models (LLMs) nutzen, um Entwürfe für Vorschriften in einem Bruchteil der sonst üblichen Zeit zu erstellen. Befürworter argumentieren, dies werde Engpässe beseitigen und die Effizienz der Regierung modernisieren; die Strategie hat jedoch eine heftige Debatte über Sicherheit, Genauigkeit und die rechtliche Integrität der Übertragung hochriskanter Regierungsaufgaben an Algorithmen ausgelöst.
Im Kern dieser Initiative steht ein grundlegender Wandel in der Philosophie regulatorischer Qualität. Gregory Zerzan, der General Counsel des DOT, hat Berichten zufolge eine Doktrin vertreten, die Geschwindigkeit und Menge der Sorgfalt vorzieht. Während interner Sitzungen betonte Zerzan, dass die Behörde nicht die „perfekte Regel“ oder gar eine „sehr gute Regel“ benötige, sondern vielmehr eine, die „gut genug“ sei.
Dieser Ansatz steht im Einklang mit einer breiteren Strategie, die darauf abzielt, die Zone mit neuen Vorschriften zu „überschwemmen“ und dabei die menschliche „Engstelle“ zu umgehen, die den Entwurfsprozess typischerweise verlangsamt. Unter diesem neuen Paradigma will das DOT die Zeitspanne vom Konzept bis zu einem kompletten Entwurf, der zur Prüfung an das Office of Information and Regulatory Affairs (OIRA) weitergegeben wird, auf nur 30 Tage verkürzen — ein Prozess, der traditionell Monate oder Jahre in Anspruch nimmt.
Die Abhängigkeit von Google Gemini ist zentral für diese Beschleunigung. Verantwortliche behaupten, dass das KI-Modell einen Entwurf einer Regel in etwa 20 Minuten erzeugen könne, eine Leistung, die das Tempo der föderalen Regelsetzung grundlegend verändern würde. Diese Fokussierung auf Geschwindigkeit wirft jedoch kritische Fragen nach der Tiefe der rechtlichen Analyse und der technischen Prüfung auf, die auf Regeln angewendet werden, die grundlegende Sicherheitsstandards für Luftfahrt, Pipelines und Schienenverkehr regeln.
Die technische Umsetzung dieses Plans beinhaltet den Einsatz einer Version von Googles Gemini zur Erstellung des Großteils des regulatorischen Textes. Während einer Demonstration im Dezember 2025 zeigte ein Vortragender — von Teilnehmern als vermutlich amtierender Chief AI Officer Brian Brotsos identifiziert — die Fähigkeit des Modells, eine „Notice of Proposed Rulemaking“ allein anhand von Themen-Stichwörtern zu erzeugen.
Die Demonstration hob sowohl das Potenzial als auch die Fallstricke aktueller Generative KI (Generative AI)-Technologie hervor:
Der Vorschlag deutet auf eine Zukunft hin, in der menschliche Regulierer vom Verfasser zum Prüfer werden und „AI-to-AI-Interaktionen“ überwachen, anstatt sich tiefgehend mit der inhaltlichen Ausarbeitung zu beschäftigen. Dieses Modell geht davon aus, dass die Effizienzgewinne die mit KI-„Halluzinationen“ verbundenen Risiken — also selbstbewusst formulierte, aber faktisch falsche Ausgaben, die bei generativen Modellen häufig vorkommen — überwiegen.
Die schnelle Integration von KI in sicherheitskritische Regelsetzungsprozesse hat scharfe Kritik von internem Personal und externen Experten hervorgerufen. Die Hauptsorge ist die Zuverlässigkeit von LLMs bei der Interpretation komplexer gesetzlicher Anforderungen und Rechtsprechung ohne menschliches Niveau an Schlussfolgerungsvermögen.
Mike Horton, der frühere amtierende Chief AI Officer des DOT, äußerte eine deutliche Kritik und verglich die Initiative damit, „einen Highschool-Praktikanten“ bundesweite Vorschriften ausarbeiten zu lassen. Seine Warnung unterstreicht die potenziellen Folgen von Fehlern in Sektoren, in denen Vorschriften direkt die menschliche Sicherheit beeinflussen. „Schnell zu handeln und Dinge kaputt zu machen bedeutet, dass Menschen verletzt werden“, sagte Horton und bezog sich auf das Silicon-Valley-Mantra, das das DOT offenbar übernimmt.
Aktuelle Mitarbeiter haben ebenfalls Alarm geschlagen und darauf hingewiesen, dass die von der Führung beschriebene Rolle des „Menschen in der Schleife“ möglicherweise nicht ausreiche, um subtile, aber rechtlich bedeutende Fehler der KI zu erkennen. Die Befürchtung ist, dass die schiere Menge an KI-generiertem Text menschliche Prüfer überfordern und zu einem Abnickprozess führen könnte, der Schwachstellen im föderalen Regelungsrahmen schafft.
Die Divergenz der Perspektiven zwischen den Technologiebefürwortern der Administration und den Sicherheitsadvokaten ist tiefgreifend. Die folgende Tabelle skizziert die widersprüchlichen Kernargumente, die diesen Politikwechsel prägen.
| Perspective | Key Arguments | Primary focus | Representative Stance |
|---|---|---|---|
| Befürworter | KI beseitigt bürokratische Engpässe; „gut genug“-Entwürfe reichen für erste Phasen; Menschen verlangsamen den Prozess. | Geschwindigkeit, Menge, Effizienz | Gregory Zerzan: „Wir wollen gut genug ... Wir überschwemmen die Zone.“ |
| Skeptiker | LLMs fehlen rechtliches Denken und Verantwortlichkeit; Halluzinationen bergen Sicherheitsrisiken; Komplexe Vorschriften erfordern tiefes Fachwissen. | Sicherheit, Genauigkeit, Rechtmäßigkeit | Mike Horton: „Einen Highschool-Praktikanten ... Ihre Regelsetzung machen zu lassen.“ |
| Rechtsexperten | Hohe Produktionsmenge bedeutet nicht qualitativ hochwertige Entscheidungsfindung; Risiko der Verletzung verwaltungsrechtlicher Standards. | Verwaltungsintegrität | Bridget Dooling: „Worte ergeben noch keine qualitativ hochwertige Regierungsentscheidung.“ |
Die Initiative des DOT ist kein isoliertes Experiment, sondern Teil eines breiteren Vorstoßes der Trump-Administration, künstliche Intelligenz in den föderalen Apparat zu integrieren. Nach einer Reihe von Exekutivverordnungen zur Unterstützung der KI-Entwicklung hat die Administration deutlich gemacht, Technologie zur Deregulierung und Umstrukturierung staatlicher Abläufe nutzen zu wollen.
Dies steht im Einklang mit Vorschlägen externer Beratungsgremien, wie dem Department of Government Efficiency (DOGE), das mit Elon Musk in Verbindung gebracht wird und den Einsatz automatisierter Werkzeuge zur drastischen Reduzierung des föderalen Regelwerks befürwortet. Die von DOT-Verantwortlichen verwendete „Speerspitzen“-Rhetorik deutet darauf hin, dass das Verkehrsministerium als Pilotprogramm für eine regierungsweite Einführung von KI-Entwurfswerkzeugen fungiert.
Der Einsatz von Google Gemini durch das DOT stellt einen risikoreichen Testfall für den Nutzen von Generative KI (Generative AI) in der öffentlichen Verwaltung dar. Während das Versprechen, den trägen Regelsetzungsprozess zu beschleunigen, unbestreitbar ist, prüft die Strategie die Grenzen der aktuellen KI-Zuverlässigkeit. Während die Behörde weiter „die Zone überschwemmt“, wird die Spannung zwischen dem Bedürfnis nach Geschwindigkeit und dem Gebot der Sicherheit wahrscheinlich die nächste Ära der föderalen Regulierung prägen. Für die KI-Branche dient dies als kritischer Beobachtungspunkt: ob ein allgemeines LLM die Nuancen des Bundesrechts wirklich beherrschen kann oder ob die „Halluzinationen“ der Maschine zu realen Folgen führen werden.