AI News

Der Stand der KI-Regulierung im Jahr 2026: Bundesstaaten füllen das föderale Vakuum

Während wir uns im Februar 2026 einrichten, verschiebt sich die Landschaft der Regulierung von Künstlicher Intelligenz (Artificial Intelligence – AI) in den Vereinigten Staaten dramatisch. Während viele Branchenbeobachter erwartet hatten, dass in diesem Jahr ein umfassender föderaler Rahmen entstehen würde, deuten jüngste Signale der Federal Trade Commission (FTC) auf eine erhebliche Pause in Washington, D.C. hin. Die Natur verabscheut jedoch ein Vakuum, und die Parlamente der Bundesstaaten handeln schnell, um dieses zu füllen.

Für HR-Führungskräfte und Talentmanagement-Experten hat sich das Rampenlicht vom Kapitol an die Küsten verlagert. Hawaii und der Bundesstaat Washington haben robuste neue Gesetzentwürfe vorgelegt, die den Einsatz von KI bei der Einstellung und bei Entscheidungen am Arbeitsplatz ins Visier nehmen. Diese Vorschläge, insbesondere Hawaiis HB 2500 und Washingtons HB 2157, stellen einen Wendepunkt dar: Wir bewegen uns von theoretischen Diskussionen über „ethische KI“ (Ethical AI) hin zu konkreten rechtlichen Verpflichtungen in Bezug auf Transparenz, Bias-Audits und Rechenschaftspflicht.

Hawaiis zweigleisiger Ansatz zur algorithmischen Rechenschaftspflicht

Hawaii wird oft mit Tourismus in Verbindung gebracht, doch im Jahr 2026 positioniert es sich als Pionier für digitale Rechte. Das Parlament des Bundesstaates hat zwei bedeutende Gesetzentwürfe eingebracht – HB 2500 und SB 2967 –, die sowohl den Anbietern, die KI-Tools entwickeln, als auch den Arbeitgebern, die diese einsetzen, strenge neue Verpflichtungen auferlegen würden.

HB 2500 schlägt einen umfassenden Rahmen für „algorithmische Entscheidungssysteme“ (Algorithmic Decision Systems – ADS) vor. Der Entwurf definiert ADS weit gefasst und schließt jedes maschinenbasierte Tool ein, das die menschliche Entscheidungsfindung in folgenschweren Angelegenheiten unterstützt oder ersetzt, wobei insbesondere Einstellungen, Beförderungen und Disziplinarmaßnahmen gegen Mitarbeiter genannt werden.

Im Rahmen dieses Vorschlags ist die Verantwortung geteilt, aber klar abgegrenzt. Entwickler von KI-Tools wären verpflichtet, den Unternehmen, die ihre Software kaufen, vorhersehbare Verwendungen und bekannte rechtliche Risiken offenzulegen. Für Arbeitgeber (definiert als „Deployer“), liegt die Messlatte noch höher. Vor dem Einsatz eines ADS, das die Beschäftigung wesentlich beeinflusst, müssen Unternehmen Bewerber und Mitarbeiter vorab benachrichtigen. Wenn zudem eine Entscheidung auf der Grundlage der Systemausgabe getroffen wird, muss der Arbeitgeber eine Offenlegung nach der Verwendung bereitstellen, die die spezifischen persönlichen Merkmale identifiziert, auf die sich das System gestützt hat – bis hin zu den 20 einflussreichsten Faktoren.

Ergänzt wird dies durch SB 2967, das als Verbraucherschutzgesetz eingebracht wurde. Es stuft beschäftigungsbezogene KI als „hochriskant“ (High-Risk) ein. Dieser Entwurf geht über einfache Transparenz hinaus; er verlangt, dass Deployer jährliche Folgenabschätzungen (Impact Assessments) durchführen, um auf unverhältnismäßige Auswirkungen und Voreingenommenheit (Bias) zu prüfen. Er schafft zudem ein Recht auf Korrektur und menschliche Überprüfung, wodurch automatisierte „Blackbox“-Ablehnungen ohne die Möglichkeit einer Beschwerde effektiv verboten werden.

Washingtons Vorstoß gegen Diskriminierung

Unterdessen treibt der Bundesstaat Washington im pazifischen Nordwesten mit HB 2157 seine eigene Regulierungsagenda voran. Washington, bekannt als Zentrum für technologische Innovation, versucht, das Branchenwachstum mit dem Schutz der Bürgerrechte in Einklang zu bringen.

HB 2157 konzentriert sich stark auf die Vermeidung von KI-Diskriminierung (AI Discrimination) bei weitreichenden Entscheidungen, einschließlich Einstellungen und Krankenversicherungen. Im Gegensatz zu Gesetzen, bei denen Transparenz an erster Stelle steht und die lediglich einen Disclaimer verlangen, würde dieser Entwurf Unternehmen dazu verpflichten, aktive Schritte zu unternehmen, um Einzelpersonen vor Diskriminierung zu schützen, die in algorithmischen Modellen eingebettet ist.

Das Gesetz gilt für Unternehmen mit einem Jahresumsatz von über 100.000 $, eine Schwelle, die die überwiegende Mehrheit der Arbeitgeber erfasst, die HR-Software für Unternehmen einsetzen. Es zielt speziell auf den „Abschreckungseffekt“ (Chilling Effect) voreingenommener Algorithmen ab und verlangt, dass Entwickler und Anwender nachweisen, dass ihre Tools geschützte Gruppen nicht benachteiligen. Dieser legislative Schritt folgt der Arbeit der zuvor eingerichteten Washington State AI Task Force, die Empfehlungen zu „Leitprinzipien für KI am Arbeitsplatz“ veröffentlicht hat.

Der Ansatz von Washington ist besonders bemerkenswert, da er einen potenziellen Konflikt mit der Technologiebranche signalisiert. Wirtschaftsgruppen haben bereits Bedenken geäußert, dass eine solch strenge Haftung für algorithmische Ergebnisse den Einsatz effizienzsteigernder Tools gänzlich entmutigen könnte. Die Sponsoren des Gesetzentwurfs argumentieren jedoch, dass mangels föderaler Richtlinien eine staatliche Aufsicht unerlässlich ist, um die Rechte der Arbeitnehmer zu schützen.

Die föderale Pause: Ein krasser Gegensatz

Die Dringlichkeit in den Parlamenten der Bundesstaaten steht in krassem Gegensatz zur aktuellen Stimmung auf föderaler Ebene. Ende Januar 2026 signalisierte die FTC eine geringere Bereitschaft für neue KI-Regulierungen. Bei einer „Privacy State of the Union“-Konferenz erklärte Chris Mufarrige, Direktor des FTC Bureau of Consumer Protection, dass es in der unmittelbaren Pipeline der Behörde „kein Interesse an irgendetwas im Zusammenhang mit KI“ gebe.

Dies steht im Einklang mit einer breiteren Deregulierungshaltung der aktuellen Regierung, die die Beseitigung von Innovationshindernissen betont. Die FTC hat angedeutet, dass sie sich eher auf eine „sparsame“ Durchsetzung bestehender Gesetze verlassen wird, anstatt neue KI-spezifische Statuten zu schaffen. Beispielsweise legte die Behörde kürzlich einen Fall bezüglich KI-Schreibassistenten bei, verwarf jedoch effektiv eine umfassendere Regelung, die KI-Audits landesweit standardisiert hätte.

Für Arbeitgeber, die in mehreren Bundesstaaten tätig sind, schafft dies ein komplexes Compliance-Umfeld. Anstelle eines einzigen föderalen Standards müssen Unternehmen nun durch einen „Flickenteppich“ (Patchwork) von Landesgesetzen navigieren – sie müssen strenge Transparenzregeln in Hawaii, Antidiskriminierungsmandate in Washington und Anforderungen an Bias-Audits in New York City erfüllen, während die föderalen Leitlinien minimal bleiben.

Vergleich der wichtigsten Vorschläge der Bundesstaaten

Um Talentmanagement- und HR-Rechtsteams bei der Navigation durch diese neuen Anforderungen zu unterstützen, schlüsselt die folgende Tabelle die Kernkomponenten der neuen Gesetzentwürfe in Hawaii und Washington auf.

Merkmal Hawaii (HB 2500 / SB 2967) Washington (HB 2157)
Hauptfokus Transparenz & Erklärung Antidiskriminierung & Schutz
Auslöser Einsatz von „Algorithmischen Entscheidungssystemen“ Einsatz bei „Weitreichenden Entscheidungen“
Arbeitgeberpflichten Vorabbescheinigung; Offenlegung der Faktoren nach der Entscheidung Schutz vor Diskriminierung; Nachweis der Nicht-Voreingenommenheit
Bewerberrechte Recht auf Datenkorrektur; Menschliche Überprüfung Schutz vor unverhältnismäßigen Auswirkungen
Audit-Anforderungen Jährliche Folgenabschätzungen (SB 2967) Implizit im Nachweis der Nicht-Diskriminierung
Schwelle Breite Anwendung Umsatz > 100.000 $/Jahr

Was dies für Arbeitgeber im Jahr 2026 bedeutet

Die Divergenz zwischen staatlichem Ehrgeiz und föderaler Untätigkeit bringt Arbeitgeber in eine prekäre Lage. Das Warten auf einen nationalen Standard ist keine praktikable Strategie mehr. HR-Abteilungen müssen ihre Compliance-Strategien im Bereich Arbeitsrecht (Employment Law) proaktiv anpassen, um die strengsten Anforderungen der Bundesstaaten zu erfüllen, unabhängig davon, wo sich ihr Hauptsitz befindet.

1. Überprüfen Sie Ihr KI-Inventar
Viele Organisationen leiden unter „Schatten-KI“ (Shadow AI), bei der einzelne Personalverantwortliche nicht autorisierte Tools für das Screening oder die Befragung verwenden. Die HR-Leitung muss eine vollständige Bestandsaufnahme aller algorithmischen Tools durchführen, die im Einstellungszyklus verwendet werden, um festzustellen, welche unter die Definitionen von „hochriskanten“ oder „folgeschweren“ Entscheidungen fallen.

2. Verlangen Sie Transparenz von Anbietern
Die Beweislast verlagert sich auf die Arbeitgeber („Deployer“), aber die technischen Daten liegen bei den Anbietern. Verträge müssen aktualisiert werden, um von den Anbietern die spezifischen Offenlegungen zu verlangen, die durch Gesetze wie Hawaiis HB 2500 vorgeschrieben sind. Wenn ein Anbieter die „Top 20 einflussreichsten Faktoren“ seines Modells nicht erklären kann, ist sein Einsatz in bestimmten Rechtsordnungen möglicherweise faktisch illegal.

3. Bereiten Sie sich auf „Human-in-the-Loop“-Anforderungen vor
Sowohl Hawaii als auch Washington betonen die Notwendigkeit menschlicher Aufsicht. Die Tage vollständig automatisierter Ablehnungs-E-Mails sind gezählt. Arbeitgeber sollten Arbeitsabläufe etablieren, in denen KI als Entscheidungshilfe und nicht als endgültiger Entscheidungsträger dient, und sicherstellen, dass ein menschlicher Prüfer für Einsprüche oder Korrekturen zur Verfügung steht.

Der Weg nach vorn

Das Jahr 2026 wird von diesem Tauziehen zwischen Schutzmaßnahmen auf Bundesstaatsebene und föderaler Deregulierung geprägt sein. Während die FTC pausiert, stellen Staaten wie Hawaii und Washington sicher, dass KI am Arbeitsplatz (Workplace AI) nicht in einer rechtlichen Grauzone agiert. Für zukunftsorientierte Unternehmen ist dies eine Chance, Vertrauen aufzubauen. Durch die freiwillige Einführung hoher Standards für Transparenz und Fairness können Organisationen ihre Einstellungspraktiken gegen die unvermeidliche Welle der Regulierung absichern, die gerade erst beginnt, gegen die Küste zu branden.

Ausgewählt