AI News

DOT 依賴 Google Gemini 以加速聯邦制定法規

人工智慧(artificial intelligence)與聯邦治理的交集已到關鍵時刻,當川普政府揭露計畫要部署 Google 的 Gemini AI 來草擬聯邦法規時便可見端倪。美國運輸部(U.S. Department of Transportation,DOT)被官員形容為規則制定上的「革命」先鋒,旨在極大縮短制定複雜監管框架所需的時間。

這項倡議標誌著與傳統官僚程序的重大背離,擬利用大型語言模型(Large Language Models,LLMs)的生成式能力,將草案產出時間壓縮到通常所需時間的一小部分。支持者主張此舉能消除瓶頸、現代化政府效率,但此策略也引發激烈爭論,圍繞將高風險治理托付給演算法的安全性、準確性與法律完整性等疑慮展開。

「夠好就行」標準:治理的新思維

此項倡議核心,是對監管品質哲學的根本轉變。DOT 的總法律顧問 Gregory Zerzan 據報倡導一種以速度與產量優先、勝於嚴苛完美的教條。在內部會議中,Zerzan 強調該機構不需要「完美的規則」,甚至不需要「非常好的規則」,而是要「夠好就行」。

這種做法與更廣泛的策略一致,目的是以大量新規「淹沒領域」,利用 AI 越過通常在草擬過程中放慢腳步的人為「瓶頸」。在這一新範式下,DOT 的目標是將從概念到可供資訊與規章事務辦公室(Office of Information and Regulatory Affairs,OIRA)審查的完整草案的時間,壓縮至僅 30 天——而這一過程傳統上可能耗時數月或數年。

對於加速而言,倚賴 Google Gemini 是關鍵。官員表示,該 AI 模型大約能在 20 分鐘內生成一份規則草案,這一成就將從根本上改變聯邦制定法規的步調。然而,這種對速度的重視也引出關鍵問題:用於制定航空、管線與鐵路等重要安全標準的規則,是否能承受法律分析與技術審查的深度減少。

Gemini 掌舵:能力與侷限

這項計畫的技術實施包括使用某版本的 Google Gemini 來撰寫大部分監管文本。在 2025 年 12 月的一次示範中,一名出席者辨認可能是代理首席 AI 長 Brian Brotsos 的示範者,展示該模型僅憑主題關鍵字就能生成「擬議規則通知(Notice of Proposed Rulemaking)」。

示範凸顯了當前生成式 AI(Generative AI)技術的潛力與陷阱:

  • 效率主張: 示範者表示,Gemini 可處理 80% 到 90% 的草擬工作量,讓人類人員主要扮演校對者的角色。
  • 輸出品質: 雖然 AI 成功產出一份類似正式通知的文件,見證者指出,其缺乏撰寫 聯邦法規(Code of Federal Regulations)所需的具體文字實質。
  • 「文字沙拉」辯護: 在一段具爭議性的發言中,示範者將許多監管文件的前言文字形容為「文字沙拉」,暗示大型語言模型模仿這種風格就足以滿足政府用途。

該提案暗示未來人類監管者將從撰寫者轉變為稽核者,監控「AI 與 AI 之間的互動」,而非深入從事實質性草擬。此模式假定效率收益超過由 AI「幻覺」現象(hallucinations)所帶來的風險——亦即生成模型常見的自信陳述但事實錯誤的輸出。

反對之聲:安全與完整性疑慮

AI 快速整合到安全關鍵的制定法規工作,引來內部員工與外部專家的嚴厲批評。主要擔憂在於 LLMs 在未具有人類層級推理能力的情況下,解讀複雜法定要求與判例法的可靠性。

DOT 的前代理首席 AI 長 Mike Horton 提出嚴厲批評,將此倡議比喻為「讓一個高中實習生」來草擬聯邦法規。他的警告凸顯在法規直接影響人身安全的領域中,錯誤可能帶來的後果。「快速行動、破壞事物會有人受傷,」Horton 指出,並引用矽谷那句看似 DOT 正在採用的格言。

現職員工也表示震驚,指出領導層所描述的「人類在回路中」角色,可能不足以捕捉 AI 產生的微妙但具法律意義的錯誤。人們擔心大量 AI 生成的文本會淹沒人類審查者,導致走過場式的蓋章程序,從而在聯邦監管框架中造成漏洞。

比較分析:AI 在制定法規的辯論

政府技術支持者與安全倡議者之間的觀點分歧深刻。下表概述了塑造此政策轉變的相互對立核心論點。

Perspective Key Arguments Primary focus Representative Stance
支持者(Proponents) AI 消除官僚瓶頸;「夠好就行」的草案對起始階段足夠;人類拖慢流程。 速度、產量、效率 Gregory Zerzan:「我們要夠好就行⋯⋯我們要淹沒領域。」
懷疑者(Skeptics) LLMs 缺乏法律推理與問責;幻覺現象(hallucinations)會構成安全風險;複雜法規需要深厚專業知識。 安全、準確、合法性 Mike Horton:「讓一個高中實習生⋯⋯來做你們的法規制定。」
法律專家(Legal Experts) 大量產出並不等於高品質決策;可能違反行政法標準的風險。 行政完整性 Bridget Dooling:「字句並不能構成高品質的政府決策。」

更廣泛的 AI 策略

DOT 的倡議並非孤立實驗,而是川普政府更廣泛推動將人工智慧嵌入聯邦體系的一部分。在一系列支持 AI 發展的行政命令之後,政府已明確表示意圖利用技術來放鬆管制並重組政府運作。

這與外部諮詢機構的提案一致,例如與 Elon Musk 關聯的政府效率部(Department of Government Efficiency,DOGE),該機構主張使用自動化工具大幅減少聯邦監管法規編纂。DOT 官員使用的「矛尖所在」(point of the spear)措辭暗示,運輸部正擔任一個政府範圍內採用 AI 草擬工具的試點計畫。

結論

DOT 部署 Google Gemini 的做法,代表生成式 AI 在公共行政中效用的一個高風險測試案例。雖然加快緩慢的制定法規程序的承諾不可忽視,但此策略也在考驗當前 AI 可靠性的極限。隨著該機構繼續推動「淹沒領域」,對速度的需求與對安全的必要關注之間的緊張關係,可能定義下一個時代的聯邦規章。對 AI 產業而言,這也是一個關鍵的觀察點:看一個通用大型語言模型是否真能掌握聯邦法律的細微差異,或是機器的「幻覺」會導致現實世界的後果。

精選