AI News

Le DOT s'appuie sur Google Gemini pour accélérer l'élaboration des règles fédérales

L'intersection de l'intelligence artificielle (artificial intelligence, AI) et de la gouvernance fédérale a atteint un tournant alors que l'administration Trump dévoile des plans pour déployer Google Gemini afin de rédiger des règlements fédéraux. Dans une initiative qualifiée par des responsables de "révolution" dans l'élaboration des règles, le U.S. Department of Transportation (DOT) se positionne comme l'avant-garde de ce basculement automatisé, visant à réduire drastiquement le temps nécessaire pour créer des cadres réglementaires complexes.

Cette initiative, qui marque un départ significatif par rapport aux processus bureaucratiques traditionnels, cherche à exploiter les capacités génératives des grands modèles de langage (Large Language Models, LLMs) pour produire des projets de réglementation en une fraction du temps habituel. Si les partisans soutiennent que cela éliminera les goulets d'étranglement et modernisera l'efficacité gouvernementale, la stratégie a déclenché une tempête de débats concernant la sécurité, la précision et l'intégrité juridique de la délégation d'enjeux gouvernementaux majeurs à des algorithmes.

La norme « Good Enough » : une nouvelle philosophie de la gouvernance

Au cœur de cette initiative se trouve un changement fondamental dans la philosophie de la qualité réglementaire. Gregory Zerzan, conseiller juridique général du DOT, aurait défendu une doctrine privilégiant la rapidité et le volume plutôt que la perfection méticuleuse. Lors de réunions internes, Zerzan a insisté sur le fait que l'agence n'a pas besoin de « la règle parfaite » ni même d'« une très bonne règle », mais plutôt d'une règle « suffisamment bonne ».

Cette approche s'aligne sur une stratégie plus large visant à « inonder la zone » de nouvelles réglementations, en utilisant l'IA pour contourner le « point d'étranglement » humain qui ralentit généralement le processus de rédaction. Dans ce nouveau paradigme, le DOT vise à accélérer le calendrier, depuis le concept jusqu'à un projet complet prêt pour examen par l'Office of Information and Regulatory Affairs (OIRA), pour n'être plus que de 30 jours — un processus qui s'étend traditionnellement sur des mois ou des années.

La dépendance à Google Gemini est centrale dans cette accélération. Des responsables affirment que le modèle d'IA peut générer un projet de règle en environ 20 minutes, un exploit qui modifierait fondamentalement le rythme de l'élaboration des règles fédérales. Toutefois, cette focalisation sur la vitesse soulève des questions cruciales sur la profondeur de l'analyse juridique et de l'examen technique appliqués à des règles qui régissent des normes essentielles de sécurité pour l'aviation, les oléoducs et le transport ferroviaire.

Gemini au gouvernail : capacités et limites

La mise en œuvre technique de ce plan implique l'utilisation d'une version de Google Gemini pour rédiger l'essentiel du texte réglementaire. Lors d'une démonstration en décembre 2025, un présentateur — identifié par les participants comme étant probablement le directeur par intérim de l'IA, Brian Brotsos — a montré la capacité du modèle à générer un "Notice of Proposed Rulemaking" basé uniquement sur des mots-clés de sujet.

La démonstration a mis en lumière à la fois le potentiel et les pièges de la technologie d'IA générative (generative AI) actuelle :

  • Allégations d'efficacité : Le présentateur a suggéré que Gemini pourrait prendre en charge 80 % à 90 % de la charge de travail de rédaction, reléguant le personnel humain principalement au rôle de relecteur.
  • Qualité de la production : Bien que l'IA ait produit avec succès un document ressemblant à un avis formel, des témoins ont noté qu'il manquait la substance textuelle spécifique requise pour le règlement fédéral.
  • Défense du « word salad » : Dans une remarque controversée, le présentateur a qualifié une grande partie du texte liminaire des documents réglementaires de « word salad », laissant entendre que la capacité d'un LLM à imiter ce style suffisait pour les besoins du gouvernement.

La proposition suggère un avenir où les régulateurs humains passeront d'auteurs à auditeurs, surveillant les « interactions IA-à-IA » plutôt que de s'engager dans une rédaction substantielle approfondie. Ce modèle suppose que les gains d'efficacité l'emportent sur les risques associés aux « hallucinations » de l'IA — des sorties affirmées avec assurance mais factuellement incorrectes, communes aux modèles génératifs.

Voix dissidentes : préoccupations de sécurité et d'intégrité

L'intégration rapide de l'IA dans l'élaboration des règles critiques pour la sécurité a suscité de vives critiques de la part du personnel interne et d'experts externes. La principale préoccupation porte sur la fiabilité des LLMs pour interpréter des exigences statutaires complexes et la jurisprudence sans raisonnement au niveau humain.

Mike Horton, ancien directeur par intérim de l'IA au DOT, a livré une critique sévère, comparant l'initiative à « faire rédiger les règlements fédéraux par un stagiaire de lycée ». Son avertissement souligne les conséquences potentielles d'erreurs dans des secteurs où les réglementations ont un impact direct sur la sécurité des personnes. « Aller vite et casser des choses signifie que des gens vont se blesser », a déclaré Horton, en faisant référence au mantra de la Silicon Valley que le DOT semble adopter.

Des membres actuels du personnel ont également exprimé leur alarmisme, notant que le rôle de « l'humain dans la boucle » décrit par la direction pourrait être insuffisant pour détecter des erreurs subtiles mais juridiquement significatives générées par l'IA. La crainte est que le volume même de textes générés par l'IA puisse submerger les relecteurs humains, conduisant à un processus d'avalement qui crée des vulnérabilités dans le cadre réglementaire fédéral.

Analyse comparative : le débat sur l'élaboration des règles par l'IA

La divergence de perspectives entre les promoteurs technologiques de l'administration et les défenseurs de la sécurité est profonde. Le tableau suivant présente les arguments fondamentaux opposés qui façonnent ce changement de politique.

Perspective Arguments clés Focus principal Position représentative
Partisans L'IA élimine les goulets d'étranglement bureaucratiques ; des projets "suffisamment bons" conviennent aux étapes initiales ; les humains ralentissent le processus. Vitesse, Volume, Efficacité Gregory Zerzan : "We want good enough... We're flooding the zone."
Sceptiques Les LLMs manquent de raisonnement juridique et de responsabilité ; les hallucinations posent des risques pour la sécurité ; les réglementations complexes requièrent une expertise approfondie. Sécurité, Précision, Légalité Mike Horton : "Having a high school intern... doing your rulemaking."
Experts juridiques La génération en grand volume n'équivaudra pas à une prise de décision de haute qualité ; risque de violation des normes de droit administratif. Intégrité administrative Bridget Dooling : "Words don't add up to a high-quality government decision."

La stratégie AI plus large

L'initiative du DOT n'est pas une expérience isolée mais s'inscrit dans une poussée plus large de l'administration Trump pour intégrer l'intelligence artificielle dans l'appareil fédéral. Après une série de décrets soutenant le développement de l'IA, l'administration a indiqué une intention claire d'utiliser la technologie pour déréglementer et restructurer les opérations gouvernementales.

Cela s'aligne sur des propositions d'organes consultatifs externes, tels que le Department of Government Efficiency (DOGE) associé à Elon Musk, qui a préconisé l'utilisation d'outils automatisés pour réduire drastiquement le code réglementaire fédéral. La rhétorique de « pointe de la lance » utilisée par des responsables du DOT suggère que le Département des Transports sert de programme pilote pour une adoption à l'échelle gouvernementale d'outils de rédaction basés sur l'IA.

Conclusion

Le déploiement de Google Gemini par le DOT représente un cas d'essai à enjeux élevés pour l'utilité de l'IA générative (generative AI) dans l'administration publique. Si la promesse d'accélérer le processus d'élaboration des règles, notoirement lent, est indéniable, la stratégie met à l'épreuve les limites de la fiabilité actuelle de l'IA. À mesure que l'agence avance avec sa politique d'« inonder la zone », la tension entre la demande de rapidité et l'impératif de sécurité définira probablement la prochaine ère de la réglementation fédérale. Pour l'industrie de l'IA, cela constitue un point d'observation critique : voir si un LLM à usage général peut réellement maîtriser les nuances du droit fédéral, ou si les « hallucinations » de la machine entraîneront des conséquences dans le monde réel.

Vedettes