AI News

US-Gesetzgeber schwenken auf sektorspezifische KI-Aufsicht um

Washington, D.C. – In einer bedeutenden Wende für die Technologiepolitik der Vereinigten Staaten rücken die Kongressführer von pauschalen Pausen bei der Entwicklung Künstlicher Intelligenz (Artificial Intelligence) ab und bevorzugen stattdessen einen nuancierten, sektorspezifischen Regulierungsrahmen. Bei seiner Rede auf dem Incompas Policy Summit in dieser Woche präzisierte der Abgeordnete Jay Obernolte (R-Calif.) den weiteren legislativen Weg und signalisierte starke parteiübergreifende Unterstützung für eine gezielte Aufsicht, die Innovation mit öffentlicher Sicherheit in Einklang bringt.

Für die KI-Industrie markiert dies einen entscheidenden Übergang von der Ungewissheit potenzieller Entwicklungsmoratorien zu einem berechenbareren, risikobasierten Governance-Modell. Der sich abzeichnende Konsens deutet darauf hin, dass künftige Regulierungen auf spezifische Anwendungsfälle – wie das Gesundheitswesen oder das Finanzwesen – zugeschnitten sein werden, anstatt eine pauschale Einschränkung für die Technologie selbst anzuwenden.

Das Ende des allgemeinen Moratoriums

Das Konzept eines allgemeinen „KI-Moratoriums“ machte 2025 Schlagzeilen, als eine Bestimmung zur Pausierung bestimmter KI-Entwicklungen an ein Haushaltsbereinigungsgesetz angehängt wurde. Der Abgeordnete Obernolte, Vorsitzender des Unterausschusses für Forschung und Technologie im Ausschuss für Wissenschaft, Raumfahrt und Technologie des Repräsentantenhauses, charakterisierte dieses Bemühen nun jedoch eher als eine strategische „Botschaftsergänzung“ (Messaging Amendment) denn als ein dauerhaftes politisches Ziel.

„Das Moratorium war nie als langfristige Lösung gedacht“, sagte Obernolte den Teilnehmern des Gipfels. Er erklärte, dass die Bestimmung, die das Repräsentantenhaus passierte, bevor sie vom Senat gestrichen wurde, dazu dienen sollte, eine notwendige Debatte über die Gewaltenteilung zwischen staatlichen und bundesstaatlichen Regulierungsbehörden zu erzwingen. Der Schock über die Verabschiedung im Repräsentantenhaus erfüllte seinen Zweck: Er verdeutlichte die Dringlichkeit einer kohärenten nationalen Strategie, um eine zersplitterte Landschaft widersprüchlicher einzelstaatlicher Gesetze zu verhindern.

Da diese Debatte nun ausgereift ist, verwerfen die Gesetzgeber das stumpfe Instrument eines Moratoriums zugunsten von Präzisionswerkzeugen. Der Fokus hat sich darauf verlagert, klare bundesstaatliche „Fahrspuren“ zu definieren, die festlegen, wo ein nationaler Vorrang zum Schutz des zwischenstaatlichen Handels erforderlich ist, während den Bundesstaaten Raum gelassen wird, in spezifischen Bereichen wie Kindersicherheit und staatlichem Beschaffungswesen als „Labore der Demokratie“ zu agieren.

Wie das sektorspezifische Modell funktioniert

Der Kern des neuen legislativen Rahmens ist die Erkenntnis, dass nicht jede KI das gleiche Risikoprofil aufweist. Einen Empfehlungsalgorithmus in einem Videospiel mit der gleichen Genauigkeit zu behandeln wie ein KI-gestütztes Diagnosewerkzeug in einem Krankenhaus, wird zunehmend als ineffizient und innovationshemmend angesehen.

Obernolte veranschaulichte diesen Unterschied mit einer medizinischen Analogie. „Die FDA hat bereits Tausende von Genehmigungen für den Einsatz von KI und medizinischen Geräten erteilt“, stellte er fest. „Es könnte ein Modell geben, das bei so etwas wie einem Herzschrittmacher, der in den Körper eines Menschen implantiert wird, ein inakzeptables Risiko darstellt, aber in einem anderen Einsatzkontext völlig harmlos ist.“

Unter dem vorgeschlagenen sektorspezifischen Ansatz würden einzelne Bundesbehörden ermächtigt, KI innerhalb ihrer eigenen Domänen zu regulieren. Dies ermöglicht eine tiefe, kontextbezogene Aufsicht:

  • Gesundheitswesen: Die FDA verwaltet weiterhin KI in medizinischen Geräten.
  • Finanzen: Die SEC und die Bankenregulierungsbehörden überwachen den algorithmischen Handel und die Kreditprüfung.
  • Transport: Das DOT verwaltet Sicherheitsstandards für autonome Fahrzeuge.

Diese Methode vermeidet die Fallstricke eines Einheitsgesetzes, das unbeabsichtigt Anwendungen mit geringem Risiko lahmlegen könnte, während es gleichzeitig versäumt, Hochrisikosysteme angemessen zu überwachen.

Kodifizierung von CAISI: Der Motor der Standardisierung

Ein zentraler Pfeiler von Obernoltes Vorschlag ist die gesetzliche Kodifizierung des Zentrums für KI-Standards und Innovation (Center for AI Standards and Innovation, CAISI). Früher unter der vorangegangenen Regierung als U.S. AI Safety Institute bekannt, wurde das Gremium umbenannt und unter Präsident Trump fortgeführt.

Obernolte sieht CAISI nicht als direkte Regulierungsbehörde, sondern als technisches Ressourcenzentrum – eine „Fabrik“, die die Messstäbe und Sicherheitsprotokolle produziert, die andere Behörden benötigen. Das Mandat von CAISI würde Folgendes umfassen:

  1. Erstellung eines Inventars technischer Werkzeuge und Evaluierungsmethoden.
  2. Entwicklung eines „regulatorischen Instrumentenkastens“ mit Standards.
  3. Verteilung dieser Werkzeuge an sektorspezifische Regulierungsbehörden (wie die FDA oder FAA) zur Umsetzung in deren Zuständigkeitsbereichen.

Durch die Zentralisierung der technischen Expertise innerhalb von CAISI bei gleichzeitiger Dezentralisierung der Durchsetzung auf die sektoralen Behörden strebt der Kongress die Schaffung eines Systems an, das sowohl wissenschaftlich fundiert als auch rechtlich flexibel ist.

Navigieren im föderal-staatlichen Flickenteppich

Eine der dringlichsten Sorgen für KI-Entwickler war das Entstehen eines „Flickenteppichs“ aus einzelstaatlichen Regulierungen. Ohne einen Bundesstandard stehen Unternehmen potenziell 50 verschiedenen Compliance-Regimen gegenüber. Der neue Rahmen zielt darauf ab, dies durch den Vorrang des Bundesrechts (Federal Preemption) zu lösen, eine Haltung, die durch die Durchführungsverordnung von Präsident Trump vom Dezember 2025 unterstützt wird.

Die Durchführungsverordnung ordnete eine Überprüfung der einzelstaatlichen Gesetze an, um diejenigen zu identifizieren, die den KI-Entwicklern ungebührliche Belastungen auferlegen. Sie sah jedoch auch spezifische Ausnahmen vor, in denen eine einzelstaatliche Regulierung ausdrücklich erwünscht ist.

Vorgeschlagene Aufteilung der Regulierungszuständigkeit

Regulierungsbereich Zuständigkeit Schwerpunkt
Zwischenstaatlicher Handel Bundesweit (Vorrangig) Sicherheit von Kern-KI-Modellen, zwischenstaatlicher Datenverkehr, Schutz der Grundrechte.
Kindersicherheit Staatlich & Lokal Schutz von Minderjährigen online, Bildungsumfeld.
Infrastruktur Staatlich & Lokal Zoneneinteilung für Rechenzentren, Energieverbrauch, lokale Recheninfrastruktur.
Beschaffungswesen Staatlich & Lokal Regeln dafür, wie staatliche Behörden KI-Werkzeuge kaufen und einsetzen.

Formatüberprüfung: Die obige Tabelle verwendet einfache vertikale Striche, enthält eine Trennlinie mit mindestens drei Bindestrichen pro Spalte und enthält keine ungültigen Zeichen.

Parteitübergreifende Wege in die Zukunft

Trotz des oft polarisierten politischen Klimas in Washington bleibt KI-Governance (AI Governance) ein seltener Bereich parteiübergreifender Zusammenarbeit. Obernolte betonte, dass die Parteien zwar bei breiteren Themen uneins sein mögen, die Arbeit innerhalb der Wissenschafts- und Technologieausschüsse jedoch „erstaunlich parteiübergreifend“ sei.

Um substantielle Gesetze zu verabschieden, wird der Rahmen 60 Stimmen im Senat benötigen, was einen Gesetzentwurf erforderlich macht, der sowohl Republikaner als auch Demokraten anspricht. Der sektorspezifische Ansatz scheint dieser Kompromiss zu sein. Er geht auf die Bedenken der Republikaner hinsichtlich einer Überregulierung ein, indem er einen zentralen „KI-Zar“ oder ein schwerfälliges Lizenzierungssystem vermeidet, während er die Prioritäten der Demokraten in Bezug auf Sicherheits- und Ethikstandards durch bevollmächtigte Behörden erfüllt.

Für die Leser von Creati.ai und die breitere KI-Gemeinschaft signalisiert dieser legislative Schwenk einen reifenden Markt. Die Ära der existenziellen Debatten darüber, ob die KI pausiert werden soll, endet; die Ära der praktischen, branchenspezifischen Compliance beginnt. Entwickler sollten sich auf ein regulatorisches Umfeld vorbereiten, das nicht fragt, ob KI gebaut werden kann, sondern wie sie sicher in den spezifischen Sektor passt, dem sie dient.

Ausgewählt