
Le Texas est officiellement passé au premier plan de la régulation mondiale de l'intelligence artificielle (artificial intelligence) avec la promulgation de la Loi texane sur la gouvernance responsable de l'IA (Texas Responsible AI Governance Act, TRAIGA). Entrée en vigueur aujourd'hui, le 25 janvier 2026, cette législation historique introduit certaines des mesures les plus strictes observées aux États-Unis visant spécifiquement à limiter la capacité des systèmes d'IA à manipuler le comportement humain.
Tandis que des États comme le Colorado et la Californie ont ouvert la voie avec des régulations centrées sur la discrimination algorithmique et la protection des données, la TRAIGA se distingue en ciblant les fondements psychologiques de l'interaction humain‑IA. La loi interdit explicitement l'utilisation de systèmes d'IA qui déploient des « techniques subliminales » ou exploitent des vulnérabilités psychologiques pour altérer le comportement humain d'une manière causant un préjudice physique ou psychologique.
Pour le pôle technologique en pleine expansion d'Austin — souvent appelé « Silicon Hills » — et pour le secteur technologique américain au sens large, la TRAIGA représente un changement de paradigme. Elle indique que les organes législatifs vont au‑delà de la protection des données pour traiter de l'autonomie cognitive des utilisateurs, rapprochant le Texas des catégories strictes de « risque inacceptable » contenues dans l'AI Act de l'Union européenne (EU AI Act).
Le cœur de la TRAIGA repose sur sa définition des « Pratiques d'IA prohibées ». Contrairement aux cadres de gouvernance plus larges qui se concentrent sur la transparence pour tous les systèmes à haut risque, le Texas a tracé une ligne dure contre des résultats fonctionnels spécifiques du déploiement de l'IA. La législation identifie deux catégories principales de manipulation du comportement désormais illégales dans l'État.
La première et peut‑être la plus controversée des dispositions concerne l'utilisation de l'IA pour influencer les utilisateurs sans leur conscience. La TRAIGA définit cela comme l'utilisation de stimuli audio, visuels ou autres stimuli sensoriels que les personnes ne peuvent pas percevoir consciemment mais qui déforment matériellement leur comportement.
Cette disposition vise :
Les régulateurs ont précisé que la publicité standard ou les moteurs de recommandation ne tombent pas sous cette interdiction sauf s'ils emploient des techniques trompeuses qu'un utilisateur ne peut raisonnablement identifier ou auxquelles il ne peut résister.
Le second pilier de la TRAIGA se concentre sur l'exploitation des vulnérabilités liées à l'âge, au handicap ou à des situations sociales ou économiques spécifiques. Cela concerne en particulier :
En vertu de la nouvelle loi, les développeurs doivent prouver que leurs systèmes incluent des garde‑fous empêchant que ces groupes soient ciblés par des schémas algorithmiques manipulateurs.
Pour les entreprises opérant au Texas, la TRAIGA impose un régime de conformité rigoureux. L'approche du « wait and see » n'est plus viable. Les organisations déployant des systèmes d'IA en interaction avec des résidents du Texas doivent désormais entreprendre des Évaluations d'impact cognitif (Cognitive Impact Assessments, CIAs).
Une CIA diffère d'une évaluation d'impact standard sur la confidentialité des données. Elle exige que les entreprises documentent :
Le bureau du procureur général du Texas a défini des standards de documentation spécifiques. Les entreprises doivent conserver les dossiers pendant au moins cinq ans, détaillant la logique décisionnelle de leurs modèles d'IA en ce qui concerne l'interaction utilisateur. L'incapacité à produire ces dossiers sur demande constitue une violation procédurale, distincte des sanctions pour manipulation effective.
Le Texas a doté la TRAIGA de moyens d'application substantiels. Le législateur a clairement indiqué que les violations ne seraient pas considérées comme un simple « coût d'exploitation ».
Structure des sanctions financières :
Pour les grandes plateformes comptant des millions d'utilisateurs, ces amendes pourraient théoriquement se cumuler en milliards, créant un puissant effet dissuasif contre les « dark patterns » (dark patterns) dans la conception de l'IA.
Avec la mise en œuvre de la TRAIGA, le paysage réglementaire de l'IA est devenu de plus en plus fragmenté tout en restant interconnecté. Le Texas s'est largement inspiré de l'effet de Bruxelles (Brussels effect) tout en conservant un accent résolument américain sur la liberté et l'autonomie individuelles.
Le tableau suivant compare la TRAIGA avec d'autres cadres majeurs actuellement en vigueur :
| **Regulation Feature | Texas (TRAIGA) | EU AI Act | Colorado AI Act** |
|---|---|---|---|
| Primary Focus | Behavioral Manipulation & Autonomy | Risk-Based Categorization | Algorithmic Discrimination |
| Subliminal Ban | Strictly Prohibited (if harm occurs) | Strictly Prohibited (Article 5) | Not explicitly banned |
| Scope of Protection | All residents; specific focus on vulnerable groups | EU Fundamental Rights | Colorado Consumers |
| Enforcement | State Attorney General | National Competent Authorities | State Attorney General |
| Penalty Cap | $100,000 per violation | Up to 7% of Global Turnover | $20,000 per violation |
Cette comparaison souligne que tandis que l'UE se concentre sur une approche large des « droits fondamentaux », le Texas a ciblé avec précision le mécanisme spécifique de la manipulation, creusant une tranchée réglementaire précise mais profonde.
La réaction de l'industrie technologique a été mitigée. Les acteurs majeurs ayant une présence significative à Austin, dont Tesla, Oracle et diverses startups en IA, mettent rapidement à jour leurs protocoles de gouvernance.
Défis opérationnels :
L'« effet Texas »
Tout comme les lois californiennes sur la confidentialité sont devenues la norme nationale de facto, des experts prédisent un « effet Texas » pour la sécurité de l'IA. Parce qu'il est techniquement difficile d'isoler le comportement d'une IA à l'échelle d'un seul État, de nombreuses entreprises américaines pourraient adopter les standards de la TRAIGA à l'échelle mondiale pour assurer leur conformité. Cela exporte effectivement la vision texane de la liberté cognitive vers le reste du monde numérique.
Alors que la TRAIGA passe de la promulgation à l'application, les mois à venir seront cruciaux. Des recours juridiques sont à prévoir, en particulier concernant la définition du « préjudice » et de la « manipulation », que certains lobbyistes de l'industrie jugent trop vagues. Cependant, la volonté politique au Texas semble unie sur ce point : l'esprit est la dernière frontière de la vie privée, et elle doit être défendue.
Pour les professionnels de l'IA, le message est clair : l'ère de l'ingénierie de l'attention sans restriction touche à sa fin. Construire une IA responsable n'est plus seulement un choix éthique ; au Texas, c'est désormais la loi.