
人工知能と連邦ガバナンスの交差点は転換点に達しており、トランプ政権は連邦規則の起草にGoogleのGemini AIを導入する計画を発表しました。役人が「規則制定における革命」と表現するこの動きで、米国運輸省(U.S. Department of Transportation、DOT)は自動化による変革の先駆けとして位置づけられ、複雑な規制枠組みの作成に必要な時間を大幅に短縮することを目指しています。
このイニシアチブは従来の官僚的プロセスからの大きな逸脱を示すもので、大規模言語モデル(Large Language Models、LLMs)の生成能力を活用して、通常の一部の時間で規則案を作成することを目指しています。支持者はこれによりボトルネックが解消され、政府の効率化が進むと主張しますが、高い重要性を持つガバナンスをアルゴリズムに委ねることの安全性、正確性、法的整合性を巡って激しい議論を引き起こしています。
このイニシアチブの核心には、規制の品質に関する哲学の根本的な転換があります。DOTの法務顧問であるGregory Zerzanは、完璧さよりも速度と量を優先する教義を提唱していると報じられています。内部会議でZerzanは、同省が「完璧な規則」や「非常に良い規則」を求めているのではなく、「十分に良い」規則を求めていると強調しました。
このアプローチは、新たな規則で「ゾーンを氾濫させる」戦略と一致しており、起草プロセスを通常遅らせる人的な「ネックポイント」をAIで回避しようとしています。この新しいパラダイムの下、DOTは概念から情報規制事務局(Office of Information and Regulatory Affairs、OIRA)による審査準備が整った完全な草案までのタイムラインを、従来数ヶ月あるいは数年かかっていたプロセスからわずか30日に圧縮することを目指しています。
この加速で中心的役割を果たすのがGoogle Geminiです。役人は、このAIモデルが約20分で規則案を生成できると主張しており、これは連邦の規則制定のペースを根本的に変える偉業となります。しかし、この速度重視は、航空、パイプライン、鉄道輸送といった重要な安全基準を規定する規則に対して行われる法的分析や技術的精査の深さについて重大な疑問を投げかけます。
この計画の技術的実装は、GoogleのGeminiのバージョンを使用して規制文書の大部分を起草することを伴います。2025年12月の実演では、出席者によって暫定チーフAI担当官(Acting Chief AI Officer)である可能性が高いと特定されたBrian Brotsos氏とみられる発表者が、トピックのキーワードのみに基づいて「Notice of Proposed Rulemaking(規則案の公告)」を生成するモデルの能力を披露しました。
その実演は現行の生成AI(generative AI)技術の可能性と落とし穴の両方を浮き彫りにしました:
提案は将来的に、人間の規制担当者が執筆者から監査役へと移行し、深い実質的起草に従事するのではなく「AI対AIの相互作用」を監視する役割になることを示唆しています。このモデルは、効率向上が生成モデルにおける「幻覚」(自信を持って述べられるが事実と異なる出力)に伴うリスクを上回るという前提に基づいています。
安全性が重要な規則制定へのAIの急速な統合は、内部スタッフや外部専門家から鋭い批判を呼んでいます。主な懸念は、LLMが複雑な法定要件や判例法を人間レベルの推論なしに解釈する際の信頼性です。
DOTの元暫定チーフAI担当官であるMike Hortonは、このイニシアチブを「高校生のインターンに連邦規則の起草を任せるようなものだ」と比較する厳しい批評を示しました。彼の警告は、規則が人命に直接影響を及ぼす分野での誤りの潜在的な結果を強調しています。「速く進んで壊すということは人々が傷つくということだ」とHortonは述べ、DOTが採用しつつあるシリコンバレーの格言を引用しました。
現職のスタッフもまた警戒を表明しており、指導層が描く「人間による関与(human in the loop)」の役割では、AIが生成する微妙で法的に重要な誤りを見落とすには不十分である可能性があるとしています。懸念は、AI生成テキストの膨大な量が人的レビュー担当者を圧倒し、形式的承認(rubber-stamping)の過程を生み、連邦規制の枠組みに脆弱性を作り出すことです。
政権の技術推進派と安全性擁護者との間の見解の相違は深刻です。次の表は、この政策転換を形作る対立する主要な議論を概説しています。
| Perspective | Key Arguments | Primary focus | Representative Stance |
|---|---|---|---|
| Proponents | AI eliminates bureaucratic bottlenecks; "Good enough" drafts are sufficient for initial stages; Humans slow down the process. | Speed, Volume, Efficiency | Gregory Zerzan: "We want good enough... We're flooding the zone." |
| Skeptics | LLMs lack legal reasoning and accountability; Hallucinations pose safety risks; Complex regulations require deep expertise. | Safety, Accuracy, Legality | Mike Horton: "Having a high school intern... doing your rulemaking." |
| Legal Experts | High-volume generation does not equal high-quality decision-making; Risk of violating administrative law standards. | Administrative Integrity | Bridget Dooling: "Words don't add up to a high-quality government decision." |
DOTのイニシアチブは孤立した実験ではなく、トランプ政権が連邦機構に人工知能を組み込もうとする幅広い推進の一部です。一連のAI開発を支持する大統領令の後、政権は技術を利用して規制緩和と政府運営の再編を図る明確な意図を示しています。
これは、Elon Muskと関連する政府効率局(Department of Government Efficiency、DOGE)のような外部助言機関からの提案とも一致しており、自動化ツールを用いて連邦規制コードを大幅に削減することを提唱しています。DOT職員が用いる「先鋒(point of the spear)」という修辞は、運輸省が政府全体でAI起草ツールを採用するための試験プログラムとして機能していることを示唆しています。
DOTによるGoogle Geminiの導入は、公共行政における生成AI(Generative AI)の有用性を試すハイリスクなケーススタディを表します。遅滞する規則制定プロセスを迅速化するという約束は否定できませんが、その戦略は現行AIの信頼性の限界を試すものでもあります。同省が「ゾーンを氾濫させる」方針で前進する中、速度への要求と安全性の確保との緊張関係が次の連邦規制時代を定義する可能性が高いでしょう。AI業界にとって、これは一般用途のLLMが連邦法の微妙さを真に克服できるか、または機械の「幻覚」が現実世界の結果をもたらすかを見極める重要な観測点となります。