AI News

2026 年人工智慧(Artificial Intelligence,簡稱 AI)監管現狀:各州填補聯邦空白

隨著我們進入 2026 年 2 月,美國人工智慧監管的格局正發生劇烈變化。儘管許多行業觀察者預計今年會出現一個全面的聯邦框架,但聯邦貿易委員會(Federal Trade Commission,簡稱 FTC)最近釋出的信號表明,華盛頓特區正處於顯著的停滯狀態。然而,自然界厭惡真空,各州議會正迅速採取行動填補這一空白。

對於人力資源領導者和人才管理專業人士來說,焦點已從國會山莊轉移到了沿海地區。夏威夷州和華盛頓州推出了強有力的新法案,針對 AI 在 招聘 和職場決策中的應用。這些提案,特別是夏威夷州的 HB 2500 和華盛頓州的 HB 2157,代表了一個轉折點:我們正在從「道德 AI」的理論討論轉向有關透明度、偏見審核和問責制的具體法律義務。

夏威夷州對演算法問責制的雙管齊下做法

夏威夷州通常與旅遊業聯想在一起,但在 2026 年,它正將自己定位為數位權利的先驅。該州議會推出了兩項重要的立法——HB 2500SB 2967——這將對開發 AI 工具的供應商和部署這些工具的雇主施加嚴格的新義務。

HB 2500 為「演算法決策系統(Algorithmic Decision Systems,簡稱 ADS)」提出了一個全面的框架。該法案對 ADS 的定義非常廣泛,包括任何在重大事項中輔助或取代人類決策的機器工具,並特別提到了招聘、晉升和員工懲戒。

根據這項提案,責任是共擔但有區別的。AI 工具的開發者將被要求向購買其軟體的公司披露可預見的用途和已知的法律風險。對於雇主(定義為「部署者」)來說,門檻設定得更高。在正式使用會對就業產生重大影響的 ADS 之前,公司必須預先通知應聘者和員工。此外,如果決策是基於系統的輸出而做出的,雇主必須提供使用後披露,識別系統所依賴的特定個人特徵——最多列出前 20 個最具影響力的因素。

與此相輔相成的是作為消費者保護法案引入的 SB 2967。它將與就業相關的 AI 歸類為「高風險」。該法案超越了簡單的透明度;它要求部署者進行年度影響評估(Annual impact assessments),以測試差別待遇和偏見。它還創設了更正權和人工審查權,有效地禁止了沒有申訴管道的「黑盒」自動拒絕。

華盛頓州的反歧視推動

與此同時,在太平洋西北地區,華盛頓州正憑藉 HB 2157 推進其自身的監管議程。作為科技創新的中心,華盛頓州正試圖在行業增長與民權保護之間取得平衡。

HB 2157 重點關注防止在高風險決策(包括招聘和醫療保險)中出現 AI 歧視(AI discrimination)。與僅要求聲明稿的透明度優先法律不同,該法案將強制要求公司採取積極措施,保護個人免受演算法模型中潛伏的歧視。

該法案適用於年收入超過 10 萬美元的企業,這一門檻涵蓋了絕大多數使用企業人力資源軟體的雇主。它專門針對偏見演算法帶來的「寒蟬效應」,要求開發者和部署者證明其工具不會使受保護群體處於不利地位。這一立法舉措遵循了早前成立的華盛頓州 AI 工作組的工作,該工作組一直在發布關於「AI 職場指導原則」的建議。

華盛頓州的做法特別值得注意,因為它預示了與科技行業潛在的衝突。商業團體已經表達了擔憂,認為對演算法結果承擔如此嚴格的責任可能會完全阻礙提高效率工具的使用。然而,法案發起人辯稱,在缺乏聯邦準則的情況下,州政府的監督對於保護勞工權利至關重要。

聯邦停滯:鮮明對比

州議會展現出的緊迫感與聯邦層面目前的氛圍形成了鮮明對比。2026 年 1 月下旬,FTC 表示對新的 AI 監管興趣減弱。FTC 消費者保護局局長 Chris Mufarrige 在一次隱私國情咨文會議上表示,在該機構眼下的規則制定計劃中,「對任何與 AI 相關的事物都沒有興趣」。

這與當前政府強調消除創新障礙的更廣泛放任立場一致。FTC 表示將依賴對現有法律的「謹慎」執行,而不是創建新的 AI 專項法規。例如,雖然該機構最近和解了一起關於 AI 寫作助手的案件,但它實際上擱置了原本會使全國 AI 審核標準化的更廣泛規則制定。

對於跨州經營的雇主來說,這創造了一個複雜的合規環境。公司現在必須應對州法律的「拼湊」,而不是單一的聯邦標準——在夏威夷州遵守嚴格的透明度規則,在華盛頓州遵守反歧視指令,並在紐約市遵守偏見審核要求,而聯邦指導方針依然微乎其微。

關鍵州提案比較

為了幫助人才管理和人力資源法律團隊應對這些新興要求,下表分解了夏威夷州和華盛頓州新法案的核心組成部分。

功能 夏威夷州 (HB 2500 / SB 2967) 華盛頓州 (HB 2157)
主要重點 透明度與解釋 反歧視與保護
觸發條件 使用「演算法決策系統」 在「高風險決策」中使用
雇主義務 預先通知;決策後因素披露 防止歧視;無偏見證明
應聘者權利 數據更正權;人工審查 免受差別待遇的保護
審核要求 年度影響評估 (SB 2967) 隱含在證明無歧視中
門檻 廣泛適用 營收 > $100,000/年

這對 2026 年的雇主意味著什麼

各州的雄心與聯邦的靜默之間的分歧使雇主處於不穩定的地位。等待國家標準不再是一個可行的策略。人力資源部門必須主動調整其 雇傭法 合規策略,以滿足最嚴格的州要求,無論其總部位於何處。

1. 審核您的 AI 資產清單
許多組織遭受「影子 AI」之苦,即個別招聘經理使用未經授權的工具進行篩選或面試。人力資源領導層必須對招聘週期中使用的所有演算法工具進行完整清點,以確定哪些屬於「高風險」或「重大」決策的定義範圍。

2. 要求供應商透明化
舉證責任正轉移到雇主(「部署者」)身上,但技術數據存在於供應商手中。合約必須更新,要求供應商提供夏威夷州 HB 2500 等法律規定的特定披露內容。如果供應商無法解釋其模型的「前 20 個影響因素」,那麼在某些司法管轄區使用該模型可能實際上是非法的。

3. 為「人機協同」要求做準備
夏威夷州和華盛頓州都強調了人工監督的必要性。完全自動化拒絕郵件的日子已經不多了。雇主應建立 AI 作為決策支持而非最終決策者的工作流,並確保有專人負責處理申訴或更正。

前進之路

2026 年將由各州級別的保護與聯邦去監管之間的這場拉鋸戰來定義。在 FTC 停滯不前之際,夏威夷州和華盛頓州等州正確保 職場 AI 不在法律灰色地帶運行。對於具有前瞻性眼光的公司來說,這是一個建立信任的機會。透過自願採用透明和公平的高標準,組織可以使自己的招聘實踐在面對才剛開始湧現的不可避免的監管浪潮時,具備面向未來的能力。

精選