AI News

監管烏雲籠罩 OpenAI 的最新發布

OpenAI 在發布其最新的旗艦編碼模型 GPT-5.3-Codex 後,發現自己正處於一場可能創下先例的法律鬥爭中心。這場爭議於本週爆發,當時 AI 監督團體**米達斯計畫(The Midas Project)**正式指控這家 AI 巨頭違反了加州新頒佈的 AI 安全立法 SB 53(前沿 AI 透明度法案,Transparency in Frontier AI Act)。爭端的核心在於該模型的「高」(High)網路安全(cybersecurity)風險等級——這一評級已得到 OpenAI 執行長 Sam Altman 的承認——以及該公司是否實施了法律對此類強大系統所要求的必要防護措施。

GPT-5.3-Codex 的發布與一款名為 GPT-5.3-Codex-Spark 的小型、低延遲(low-latency)變體同步進行,標誌著「代理式(agentic)」能力的重大飛躍。然而,發布的時間點恰逢加州嚴格的新透明度與安全協定於 2026 年 1 月 1 日生效後的幾週,這使得這一技術里程碑變成了州級 AI 監管的試金石。

指控內容:高風險、防護措施不足

米達斯計畫 提交的投訴核心在於加州 SB 53 法案的具體條款。該法案由州長 Gavin Newsom 於 2025 年底簽署,規定「前沿模型(frontier models)」(由特定的運算量和能力門檻定義)的開發者不僅必須發布安全框架,還必須嚴格遵守該框架。法律明確禁止公司發布不符合其自身治理文件中所述安全標準的模型。

根據該監督團體的說法,OpenAI 內部的「預備框架(Preparedness Framework)」將 GPT-5.3-Codex 在網路安全領域歸類為「高」風險。這一分類表明,該模型具備的能力若不加以適當限制,可能會協助進行重大的網路攻擊。米達斯計畫認為,根據 OpenAI 自己的安全承諾,具有這種特定風險特徵的模型在部署時,應具備「軍事級」的存取控制,以及比目前觀察到更嚴格、更長期的紅隊演練(red-teaming)階段。

「OpenAI 基本上將該模型的編碼能力歸類為足以促成重大網路傷害,」米達斯計畫的一位發言人表示。「由於發布時未具備其在 1 月份備案中詳細說明的必要高威脅防護措施,他們直接違反了 SB 53。這正是該法案旨在防止的情況:公司自己為自己的作業評分,然後無視不及格的分數。」

GPT-5.3-Codex:代理式編碼的飛躍

儘管面臨監管壓力,GPT-5.3-Codex 的技術成就仍是不容忽視的。該模型發布後將直接與 Anthropic 最近推出的 Claude 4.6-Opus 競爭,代表了 OpenAI 從被動的程式碼生成轉向主動的「代理式」工作流(workflows)。

OpenAI 將 GPT-5.3-Codex 描述為其「迄今為止最強大的代理式編碼模型」,聲稱其速度比前代 GPT-5.2 提升了 25%。與僅僅完成程式碼片段的早期迭代不同,GPT-5.3 旨在作為一個功能齊全的團隊成員運行。它可以駕馭複雜的軟體開發生命週期,對自己的輸出進行偵錯,甚至能自主管理部署流水線。

在一項令硬體分析師感到驚訝的舉動中,OpenAI 還推出了 GPT-5.3-Codex-Spark,這是一個專為即時、低延遲交互優化的特殊版本。該變體在來自 Cerebras Systems 的晶片上運行,標誌著 OpenAI 首次在非 Nvidia 矽片上進行大規模生產部署。與 Cerebras 的合作旨在提供「即時」的推論速度,這對於新 Codex 應用程式所承諾的交互式編碼環境至關重要。

戰略影響與行業衝擊

這次審查的結果可能會對美國 AI 產業產生深遠影響。如果加州監管機構支持米達斯計畫,OpenAI 可能面臨巨額罰款——每次違規最高可達 100 萬美元——並可能被迫撤回或大幅修改該模型的存取權限。更重要的是,這將確立 SB 53 作為一項具有「威懾力」的法規,標誌著矽谷最大 AI 實驗室自我監管時代的結束。

Sam Altman 為此次發布辯護,聲稱雖然該模型在能力方面處於「高」風險類別,但透過與先前框架不同但依然有效的新型遏制協定,部署風險已得到緩釋。「我們遵守了法律的精神和條文,」據報導 Altman 對員工表示。「創新不能被對我們自己編寫並更新的安全指標的官僚主義解釋所挾持。」

業界正在密切關注。Anthropic 和 Google 等競爭對手無疑正在分析加州如何執行 SB 53,因為這將決定未來一年內發布前沿模型的節奏。

比較分析:競爭者

GPT-5.3-Codex 的發布恰逢 Anthropic 的更新,在開發者工具市場形成了激烈的競爭。以下是目前定義該領域模型的關鍵方面比較。

2026 年初前沿編碼模型比較

功能/指標 OpenAI GPT-5.3-Codex Anthropic Claude 4.6-Opus 監管狀態
主要重點 代理式工作流、自主偵錯 安全優先的程式碼生成、大型上下文 審查中 (SB 53)
架構 混合(標準 + Spark/Cerebras) 標準 Transformer 合規(低/中風險)
風險分類 網路安全 中(通用能力) 有爭議
關鍵創新 自我修復的部署流水線 增強的推理與倫理防護措施 不適用
硬體依賴 Nvidia (訓練) / Cerebras (推論) Google TPU / Nvidia 不適用
發布窗口 2026 年 2 月 5-13 日 2026 年 2 月 活躍

AI 治理的一個測試案例

OpenAI 與加州監管機構之間的衝突凸顯了技術快速加速與治理緩慢、審慎步調之間的摩擦。SB 53 的制定旨在確保當 AI 模型接近「關鍵」能力時——例如自動化網路攻擊的能力——企業的利潤動機不會凌駕於公眾安全之上。

該法律的批評者認為它抑制了美國的創新,並指出與 Cerebras 的合作證明了美國公司正在推動硬體和軟體的邊界以保持領先於全球競爭對手。然而,支持者將這一時刻視為證明。「如果一項法律無法阻止一個被承認在沒有適當安全網的情況下屬於『高風險』的模型發布,」米達斯計畫指出,「那麼安全框架就只不過是行銷手冊而已。」

隨著加州檢察總長審查這些指控,AI 社群正在拭目以待。裁決結果可能會定義 2026 年每個主要 AI 實驗室的營運現實:嚴格遵守你的安全承諾,否則將面臨法律的全部制裁。

精選