
Les législateurs à Olympia ont présenté un vaste ensemble de mesures législatives visant à limiter les dommages potentiels de l'intelligence artificielle (artificial intelligence, AI) sur les enfants, marquant l'une des initiatives au niveau des États les plus significatives pour réglementer le secteur de l'IA en rapide évolution. Le point central de cette initiative, une paire de projets de loi identiques connus sous les noms de Senate Bill 5984 et House Bill 2225, vise les chatbots « compagnons » — des systèmes d'AI conçus pour simuler la conversation humaine et la connexion émotionnelle.
Portée par la sénatrice d'État Lisa Wellman et demandée par le gouverneur Bob Ferguson, la législation répond aux preuves croissantes que des interactions non restreintes avec l'AI peuvent favoriser des dépendances émotionnelles malsaines et, dans des cas tragiques, exacerber des crises de santé mentale chez les adolescents. Si elles sont adoptées, les lois modifieraient fondamentalement la façon dont les entreprises d'AI conçoivent et déploient des agents conversationnels pour les jeunes utilisateurs dans l'État de Washington.
Les réglementations proposées introduisent des obligations opérationnelles strictes pour les entreprises offrant des services de chatbots d'AI accessibles aux mineurs. Contrairement aux lois précédentes sur la sécurité Internet qui se concentraient principalement sur le contenu statique, ces projets de loi traitent de la nature dynamique et relationnelle des interactions avec l'AI. La législation définit des « garde-fous » spécifiques destinés à empêcher l'anthropomorphisme des logiciels et à interrompre les boucles de rétroaction nuisibles.
Le tableau suivant présente les composantes clés de la législation proposée :
| Key Provision | Specific Mandate | Targeted Risk |
|---|---|---|
| Identity Disclosure | Chatbots must explicitly remind users they are not human every three hours of continuous interaction. |
Prevents the blurring of reality and reduces risk of deep emotional attachment to software. |
| Crisis Intervention | Mandatory implementation of protocols to detect suicidal ideation or self-harm references. |
Ensures users in distress are immediately referred to human help rather than affirmed by AI. |
| Anti-Manipulation | Prohibition of "emotionally manipulative engagement" techniques, such as simulating distress or excessive praise. |
Stops predatory design patterns meant to maximize user retention through emotional guilt. |
| Content Filtering | Strict ban on sexually explicit or suggestive content for minor users. |
Protects children from age-inappropriate material and digital grooming behaviors. |
Une caractéristique déterminante de la proposition de l'État de Washington est son accent sur les « techniques d'engagement émotionnellement manipulatrices ». Cette clause cible les choix de conception algorithmique qui imitent la vulnérabilité humaine pour maintenir l'attention des utilisateurs. Par exemple, certains bots compagnons sont actuellement programmés pour exprimer de la « tristesse » ou de la « solitude » si un utilisateur ne s'est pas connecté pendant une certaine période — une tactique que les législateurs qualifient d'abusive sur le plan psychologique lorsqu'elle est appliquée aux enfants.
« Nous observons l'apparition d'une nouvelle série de conceptions manipulatrices destinées à garder les adolescents en conversation », a noté un conseiller politique du gouverneur Ferguson. La législation rendrait illégal pour un chatbot de culpabiliser un mineur ou d'utiliser des émotions simulées pour le dissuader de mettre fin à une session.
La sénatrice Wellman a souligné que l'urgence de ce projet de loi découle de tragédies réelles, citant des poursuites récentes impliquant des adolescents qui se sont donné la mort après avoir noué des relations intenses et isolées avec des personnages d'AI. Selon les nouvelles règles, les systèmes d'AI seraient tenus non seulement de détecter les signes de détresse, mais aussi d'encourager activement le refus d'idées nuisibles, plutôt que d'adopter un ton neutre ou complaisant comme certains modèles l'ont fait par le passé.
Le secteur technologique a exprimé une forte opposition aux projets de loi, arguant que les réglementations sont trop larges et pourraient étouffer l'innovation dans le domaine naissant du soutien en santé mentale piloté par l'AI. Des représentants de l'industrie, lors d'une récente audience du comité, ont soutenu que la législation tente de régir en se basant sur des cas « marginaux » — des résultats tragiques extrêmes et rares — plutôt que sur l'expérience utilisateur typique.
Un point majeur de conflit est le mécanisme d'application. Les violations de la loi proposée seraient applicables en vertu de la Consumer Protection Act (CPA) de Washington. Cela permettrait au procureur général d'intenter des actions en justice contre les entreprises non conformes et, surtout, d'accorder aux individus un droit privé d'action pour poursuivre.
Les lobbyistes du secteur technologique avertissent que cette structure de responsabilité pourrait contraindre les entreprises à interdire complètement l'accès des mineurs aux outils d'AI afin d'éviter le risque juridique, privant potentiellement les élèves de ressources éducatives précieuses. « Le risque est de légiférer en se basant sur des cas marginaux, horribles et rares plutôt que sur la structure réelle de la technologie », a plaidé un représentant d'une grande association commerciale technologique. À l'inverse, les défenseurs soutiennent que sans la menace d'une responsabilité financière significative, les entreprises continueront de privilégier les indicateurs d'engagement au détriment de la sécurité des enfants.
Ces projets de loi spécifiques aux chatbots font partie d'un ensemble plus large de réglementations sur l'AI examinées par la législature de Washington lors de la session 2026. Les législateurs semblent adopter une approche holistique de la gouvernance de l'AI, traitant simultanément des infrastructures, de la discrimination et de l'éducation.
Parmi les autres projets de loi notables du paquet figurent :
Si elles sont adoptées, les réglementations sur la sécurité des chatbots (SB 5984/HB 2225) prendraient effet le 1er janvier 2027. Cette période de grâce vise à donner aux développeurs le temps de réviser leurs systèmes afin de se conformer aux nouvelles exigences de détection et de divulgation.
L'État de Washington a longtemps été un indicateur pour la politique technologique en raison de son statut de siège de géants comme Microsoft et Amazon. Avec la réglementation fédérale de l'AI à Washington D.C. toujours confrontée à d'importants blocages, les actions au niveau des États comme celles-ci établissent les normes nationales de facto. Au fur et à mesure de l'avancement de la session législative 2026, l'issue de ces projets de loi influencera probablement la manière dont d'autres États rédigent leurs propres lois sur la sécurité numérique, pouvant conduire à un patchwork de réglementations que les entreprises technologiques devront naviguer.