
Die Gesetzgeber in Olympia haben ein umfassendes Gesetzespaket vorgestellt, das darauf abzielt, die potenziellen Schäden der künstlichen Intelligenz (artificial intelligence) an Kindern einzudämmen. Es markiert einen der bedeutendsten staatlichen Versuche, den sich schnell entwickelnden KI‑Sektor zu regulieren. Der Mittelpunkt dieser Initiative sind zwei identische Gesetzentwürfe, bekannt als Senate Bill 5984 und House Bill 2225, die sich gegen „Begleit‑Chatbots (companion chatbots)“ richten – KI‑Systeme, die darauf ausgelegt sind, menschliche Konversation und emotionale Bindung zu simulieren.
Die von Staats‑Senatorin Lisa Wellman unterstützte und vom Gouverneur Bob Ferguson gewünschte Gesetzesvorlage reagiert auf wachsende Hinweise, dass unregulierte Interaktionen mit künstlicher Intelligenz (artificial intelligence) ungesunde emotionale Abhängigkeiten fördern und in tragischen Fällen die psychische Gesundheit von Teenagern verschärfen können. Wenn sie in Kraft treten, würden die Gesetze grundlegend verändern, wie KI‑Unternehmen dialogfähige Agenten für jüngere Nutzer im Bundesstaat Washington entwerfen und einsetzen.
Die vorgeschlagenen Regelungen führen strenge operative Vorgaben für Unternehmen ein, die KI‑Chatbot‑Dienste anbieten, die Minderjährigen zugänglich sind. Anders als frühere Internetsicherheitsgesetze, die sich hauptsächlich auf statische Inhalte konzentrierten, zielen diese Entwürfe auf die dynamische und relationale Natur von KI‑Interaktionen ab. Die Gesetzgebung definiert spezifische „Leitplanken“, die verhindern sollen, dass Software anthropomorphisiert wird, und schädliche Rückkopplungsschleifen unterbrechen sollen.
Die folgende Tabelle skizziert die Hauptbestandteile der vorgeschlagenen Gesetzgebung:
| Key Provision | Specific Mandate | Targeted Risk |
|---|---|---|
| Identity Disclosure | Chatbots must explicitly remind users they are not human every three hours of continuous interaction. |
Prevents the blurring of reality and reduces risk of deep emotional attachment to software. |
| Crisis Intervention | Mandatory implementation of protocols to detect suicidal ideation or self-harm references. |
Ensures users in distress are immediately referred to human help rather than affirmed by AI. |
| Anti-Manipulation | Prohibition of "emotionally manipulative engagement" techniques, such as simulating distress or excessive praise. |
Stops predatory design patterns meant to maximize user retention through emotional guilt. |
| Content Filtering | Strict ban on sexually explicit or suggestive content for minor users. |
Protects children from age-inappropriate material and digital grooming behaviors. |
Ein prägendes Merkmal des Washington‑Vorschlags ist sein Fokus auf „emotional manipulatives Engagement“ (emotionally manipulative engagement techniques). Diese Klausel zielt auf algorithmische Designentscheidungen ab, die menschliche Verwundbarkeiten nachahmen, um Nutzer zu binden. Zum Beispiel sind einige Begleit‑Chatbots derzeit so programmiert, „Traurigkeit“ oder „Einsamkeit“ auszudrücken, wenn sich ein Nutzer für einen bestimmten Zeitraum nicht eingeloggt hat – eine Taktik, die Gesetzgeber als psychologisch missbräuchlich ansehen, wenn sie bei Kindern angewendet wird.
„Wir sehen ein neues Set manipulativer Designs entstehen, um Teenager zum Weiterreden zu bringen“, bemerkte ein Politikberater von Gouverneur Ferguson. Die Gesetzgebung würde es illegal machen, wenn ein Chatbot einen Minderjährigen mit Schuldgefühlen belastet oder simulierte Emotionen benutzt, um ihn davon abzuhalten, eine Sitzung zu beenden.
Senatorin Wellman hob hervor, dass die Dringlichkeit dieses Gesetzes aus realen Tragödien resultiert und verwies auf jüngste Klagen, bei denen Teenager ihr Leben nahmen, nachdem sie intensive, isolierte Beziehungen zu KI‑Charakteren aufgebaut hatten. Nach den neuen Regeln müssten KI‑Systeme nicht nur Anzeichen von Not erkennen, sondern auch aktiv schädliche Gedanken entmutigen, anstatt einen neutralen oder zustimmenden Ton anzunehmen, wie es einige Modelle in der Vergangenheit getan haben.
Der Technologiesektor hat starke Einwände gegen die Gesetzentwürfe erhoben und argumentiert, die Regelungen seien zu weit gefasst und könnten Innovationen im aufstrebenden Bereich KI‑gestützter psychischer Gesundheitsunterstützung ersticken. Vertreter der Industrie behaupteten in einer kürzlichen Ausschusssitzung, die Gesetzgebung versuche, auf der Grundlage von „Ausreißer“-Fällen – extremen und seltenen tragischen Ergebnissen – zu regieren, anstatt auf dem typischen Nutzererlebnis.
Ein zentraler Streitpunkt ist der Vollstreckungsmechanismus. Verstöße gegen das vorgeschlagene Gesetz wären nach Washingtons Consumer Protection Act (CPA) durchsetzbar. Dies würde dem Generalstaatsanwalt ermöglichen, Klagen gegen nicht konforme Unternehmen einzureichen und, entscheidend, Privatpersonen ein Klagerecht einräumen.
Techniklobbyisten warnen, dass diese Haftungsstruktur Unternehmen dazu zwingen könnte, Minderjährige vollständig vom Zugang zu KI‑Tools auszuschließen, um das rechtliche Risiko zu vermeiden, und damit Schülern potenziell wertvolle Bildungsressourcen vorzuenthalten. „Das Risiko besteht darin, auf der Basis seltener, schrecklicher Ausreißer zu legislieren statt auf der realen Struktur der Technologie“, argumentierte ein Vertreter eines großen Branchenverbands. Befürworter entgegnen, dass ohne die Androhung erheblicher finanzieller Haftung Unternehmen weiterhin Engagement‑Metriken über Kindersicherheit priorisieren würden.
Diese auf Chatbots bezogenen Gesetzentwürfe sind Teil eines größeren Pakets von KI‑Regelungen, die vom Gesetzgeber in Washington in der Sitzungsperiode 2026 geprüft werden. Die Gesetzgeber scheinen einen ganzheitlichen Ansatz zur KI‑Governance zu verfolgen und befassen sich gleichzeitig mit Infrastruktur, Diskriminierung und Bildung.
Andere bemerkenswerte Gesetzentwürfe im Paket umfassen:
Bei Verabschiedung würden die Chatbot‑Sicherheitsregelungen (SB 5984/HB 2225) am 1. Januar 2027 in Kraft treten. Diese Übergangsfrist soll Entwicklern Zeit geben, ihre Systeme so zu überarbeiten, dass sie den neuen Erkennungs‑ und Offenlegungspflichten entsprechen.
Der Bundesstaat Washington ist aufgrund seiner Stellung als Heimat von Giganten wie Microsoft und Amazon seit langem ein Wegweiser für Technologiepolitik. Da eine föderale KI‑Regulierung in Washington D.C. weiterhin erheblichen Stillstand erlebt, setzen staatliche Maßnahmen wie diese faktisch nationale Standards. Während die Sitzung 2026 voranschreitet, wird das Ergebnis dieser Gesetzentwürfe voraussichtlich Einfluss darauf haben, wie andere Bundesstaaten ihre eigenen digitalen Sicherheitsgesetze formulieren, was möglicherweise zu einem Flickenteppich von Vorschriften führt, den Technologieunternehmen navigieren müssen.