
Alors que nous entamons le mois de février 2026, le paysage de la réglementation de l'intelligence artificielle (IA) aux États-Unis évolue de manière spectaculaire. Alors que de nombreux observateurs de l'industrie s'attendaient à ce qu'un cadre fédéral global émerge cette année, les récents signaux de la Federal Trade Commission (FTC) suggèrent une pause significative à Washington, D.C. Cependant, la nature a horreur du vide, et les législatures des États agissent rapidement pour le combler.
Pour les responsables des RH et les professionnels de la gestion des talents, les projecteurs se sont déplacés du Capitole vers les côtes. Hawaï et l'État de Washington ont introduit de nouveaux projets de loi robustes ciblant l'utilisation de l'IA dans le recrutement et les décisions sur le lieu de travail. Ces propositions, plus précisément la HB 2500 d'Hawaï et la HB 2157 de Washington, représentent un tournant : nous passons de discussions théoriques sur l'« IA éthique » à des obligations légales concrètes concernant la transparence, les audits de biais et la responsabilité.
Hawaï est souvent associée au tourisme, mais en 2026, elle se positionne comme un pionnier des droits numériques. La législature de l'État a introduit deux textes législatifs importants — HB 2500 et SB 2967 — qui imposeraient de nouvelles obligations strictes tant aux fournisseurs qui conçoivent les outils d'IA qu'aux employeurs qui les déploient.
HB 2500 propose un cadre complet pour les « systèmes de décision algorithmique » (Algorithmic Decision Systems - ADS). Le projet de loi définit les ADS de manière large pour inclure tout outil informatique qui assiste ou remplace la prise de décision humaine dans des domaines importants, citant spécifiquement l'embauche, la promotion et la discipline des employés.
Sous cette proposition, la responsabilité est partagée mais distincte. Les développeurs d'outils d'IA seraient tenus de divulguer les utilisations prévisibles et les risques juridiques connus aux entreprises achetant leurs logiciels. Pour les employeurs (définis comme « déployeurs »), la barre est placée encore plus haut. Avant d'utiliser un ADS qui affecte matériellement l'emploi, les entreprises doivent fournir un préavis aux candidats et aux employés. De plus, si une décision est prise sur la base des résultats du système, l'employeur doit fournir une divulgation post-utilisation identifiant les caractéristiques personnelles spécifiques sur lesquelles le système s'est appuyé — jusqu'aux 20 facteurs les plus influents.
En complément, la SB 2967, introduite comme un projet de loi de protection des consommateurs, catégorise l'IA liée à l'emploi comme étant à « haut risque ». Ce projet de loi va au-delà de la simple transparence ; il exige que les déployeurs réalisent des évaluations d'impact annuelles pour tester l'impact disparate et les biais. Il crée également un droit à la correction et à l'examen humain, interdisant de fait les rejets automatisés de type « boîte noire » sans possibilité d'appel.
Pendant ce temps, dans le Nord-Ouest Pacifique, l'État de Washington avance son propre agenda réglementaire avec la HB 2157. Reconnu comme un pôle d'innovation technologique, Washington tente d'équilibrer la croissance de l'industrie avec la protection des droits civils.
La HB 2157 se concentre lourdement sur la prévention de la discrimination par l'IA dans les décisions à enjeux élevés, y compris l'embauche et l'assurance médicale. Contrairement aux lois axées sur la transparence qui exigent simplement une clause de non-responsabilité, ce projet de loi obligerait les entreprises à prendre des mesures actives pour protéger les individus contre la discrimination intégrée dans les modèles algorithmiques.
Le projet de loi s'applique aux entreprises dont le chiffre d'affaires annuel dépasse 100 000 $, un seuil qui englobe la vaste majorité des employeurs utilisant des logiciels de RH d'entreprise. Il cible spécifiquement l'« effet dissuasif » (chilling effect) des algorithmes biaisés, exigeant que les développeurs et les déployeurs prouvent que leurs outils ne désavantagent pas les classes protégées. Cette initiative législative fait suite aux travaux du Washington State AI Task Force, établi plus tôt, qui a publié des recommandations sur les « principes directeurs de l'IA sur le lieu de travail ».
L'approche de Washington est particulièrement notable car elle signale un conflit potentiel avec l'industrie technologique. Des groupes d'affaires ont déjà exprimé des inquiétudes quant au fait qu'une responsabilité aussi stricte pour les résultats algorithmiques pourrait décourager entièrement l'utilisation d'outils améliorant l'efficacité. Cependant, les promoteurs du projet de loi soutiennent qu'en l'absence de directives fédérales, la surveillance étatique est essentielle pour protéger les droits des travailleurs.
L'urgence constatée dans les parlements des États contraste fortement avec l'ambiance actuelle au niveau fédéral. Fin janvier 2026, la FTC a signalé un appétit réduit pour de nouvelles réglementations sur l'IA. S'exprimant lors d'une conférence sur l'état de l'Union de la vie privée, le directeur du Bureau de protection des consommateurs de la FTC, Chris Mufarrige, a déclaré qu'il n'y avait « aucun appétit pour quoi que ce soit lié à l'IA » dans le pipeline immédiat de réglementation de l'agence.
Cela s'aligne sur une position de déréglementation plus large sous l'administration actuelle, qui met l'accent sur la levée des barrières à l'innovation. La FTC a indiqué qu'elle s'appuierait sur une application « parcimonieuse » des lois existantes plutôt que de créer de nouveaux statuts spécifiques à l'IA. Par exemple, bien que l'agence ait récemment réglé une affaire concernant des assistants d'écriture IA, elle a effectivement mis de côté une réglementation plus large qui aurait standardisé les audits d'IA à l'échelle nationale.
Pour les employeurs présents dans plusieurs États, cela crée un environnement de conformité complexe. Au lieu d'une norme fédérale unique, les entreprises doivent désormais naviguer dans un « patchwork » de lois étatiques — en respectant les règles de transparence strictes d'Hawaï, les mandats anti-discrimination de Washington et les exigences d'audit de biais de la ville de New York, tout en bénéficiant d'un guidage fédéral minimal.
Pour aider les équipes de gestion des talents et les services juridiques RH à naviguer dans ces nouvelles exigences, le tableau suivant détaille les composantes fondamentales des nouveaux projets de loi à Hawaï et à Washington.
| Caractéristique | Hawaï (HB 2500 / SB 2967) | Washington (HB 2157) |
|---|---|---|
| Objectif principal | Transparence et explication | Anti-discrimination et protection |
| Déclencheur | Utilisation de « Systèmes de décision algorithmique » | Utilisation dans des « Décisions à enjeux élevés » |
| Obligations de l'employeur | Préavis ; Divulgation des facteurs post-décision | Protection contre la discrimination ; Preuve d'absence de biais |
| Droits des candidats | Droit de corriger les données ; Examen humain | Protection contre l'impact disparate |
| Exigences d'audit | Évaluations d'impact annuelles (SB 2967) | Implicite dans la preuve de non-discrimination |
| Seuil | Application large | Chiffre d'affaires > 100 000 $/an |
La divergence entre l'ambition des États et l'inaction fédérale place les employeurs dans une position précaire. Attendre une norme nationale n'est plus une stratégie viable. Les départements RH doivent adapter proactivement leurs stratégies de conformité au droit du travail pour répondre aux exigences étatiques les plus strictes, quel que soit l'emplacement de leur siège social.
1. Auditez votre inventaire d'IA
De nombreuses organisations souffrent de l'« IA fantôme » (shadow AI), où des responsables du recrutement utilisent des outils non autorisés pour le filtrage ou les entretiens. La direction des RH doit mener un inventaire complet de tous les outils algorithmiques utilisés dans le cycle de vie du recrutement pour déterminer lesquels relèvent des définitions de prise de décision à « haut risque » ou « importante ».
2. Exigez la transparence des fournisseurs
La charge de la preuve se déplace vers les employeurs (« déployeurs »), mais les données techniques résident chez les fournisseurs. Les contrats doivent être mis à jour pour exiger que les fournisseurs fournissent les divulgations spécifiques mandatées par des lois comme la HB 2500 d'Hawaï. Si un fournisseur ne peut pas expliquer les « 20 facteurs les plus influents » de son modèle, son utilisation peut devenir illégale dans certaines juridictions.
3. Préparez-vous aux exigences d'intervention humaine
Hawaï et Washington soulignent tous deux la nécessité d'une surveillance humaine. L'époque des courriels de rejet entièrement automatisés est comptée. Les employeurs devraient établir des flux de travail où l'IA sert de support à la décision, et non de décideur final, et s'assurer qu'un examinateur humain est disponible pour traiter les appels ou les corrections.
L'année 2026 sera définie par ce bras de fer entre les protections au niveau des États et la déréglementation fédérale. Alors que la FTC marque une pause, des États comme Hawaï et Washington veillent à ce que l'IA sur le lieu de travail ne fonctionne pas dans une zone grise juridique. Pour les entreprises tournées vers l'avenir, c'est une opportunité de renforcer la confiance. En adoptant volontairement des normes élevées de transparence et d'équité, les organisations peuvent pérenniser leurs pratiques de recrutement face à l'inévitable vague de réglementation qui commence tout juste à déferler sur le rivage.