AI News

AI 治理結構的戰略轉向

OpenAI 正式解散了其任務對齊(Mission Alignment)團隊,這是一個之前負責確保公司的人工智能(Artificial Intelligence,AI)系統與人類價值觀和意圖保持一致的專業小組。這次重大的結構調整於 2026 年 2 月 11 日執行,標誌著這家領先的 AI 實驗室在組織其安全和治理工作方面的又一次轉向。

該特定團隊的解散表明 OpenAI 繼續轉向「分佈式」安全模型,即 AI 對齊的責任被嵌入到各個產品和研究部門中,而不是集中在一個單一的專門單位。成立於 2024 年 9 月的 Mission Alignment 團隊,一直致力於開發確保 AI 模型切實遵循人類意圖的方法,特別是在高風險和對抗性情境下。

根據 OpenAI 發言人的說法,這項決定是「常規重組」的一部分,旨在隨著公司擴大更先進的通用人工智能(General Artificial Intelligence,AGI)系統的開發而簡化運作。此舉引發了業界關於快速創新與專門安全監管之間平衡的新一輪討論。

Josh Achiam 獲任首席未來學家

作為此次重組的一部分,任務對齊團隊的前負責人 Josh Achiam 已被任命為新設立的首席未來學家(Chief Futurist)一職。在這一職位上,Achiam 將把重點從眼前的對齊協議轉向更廣泛、長期的戰略預見。

Achiam 的新職責包括分析 AGI 成熟後可能產生的社會、經濟和地緣政治影響。他將負責為未來先進 AI 系統融入關鍵全球基礎設施的場景制定計劃。這一職位表明 OpenAI 打算投入高層資源來理解「後 AGI」世界,即使它分散了對齊的即時技術工作。

在關於其新職位的聲明中,Achiam 表示他將與包括物理學家 Jason Pruet 在內的技術人員密切合作,以彌補理論未來風險與當前技術軌跡之間的差距。目標是建立一個反饋循環,讓長期預見為近期技術決策提供信息,儘管之前由任務對齊團隊直接持有的執行機制現在將以不同方式處理。

OpenAI 安全團隊的演變

任務對齊團隊的解散並非孤立事件,而是 OpenAI 歷史模式的一部分。它與 2024 年「Superalignment」團隊的高調解散如出一轍,該團隊此前由 Ilya Sutskever 和 Jan Leike 共同領導。在那次轉型中,安全職責也在關鍵領導層離職後被重新分配。

批評者認為,這種去中心化方法取消專門團隊可能會削弱對安全的關注,因為被重新分配到產品團隊的成員可能會面臨部署速度與嚴格安全測試之間的動機衝突。然而,分佈式模型的支持者則認為,安全必須是每個人的責任,而不僅僅是某個孤立部門的責任。

任務對齊團隊剩餘的六到七名成員已被重新分配到 OpenAI 內部的其他職位,主要分佈在研究和政策部門,預計他們將在特定產品流水線中繼續從事與對齊相關的主題工作。

關鍵安全結構變更時間線

以下表格概述了過去幾年 OpenAI 安全與對齊團隊的主要結構轉變。

日期 事件 影響與結果
2024 年 5 月 超級對齊(Superalignment)團隊解散 隨著 Ilya Sutskever 和 Jan Leike 的離職,專注於長期風險的團隊被解散,職能由其他研究單位吸收。
2024 年 9 月 任務對齊(Mission Alignment)團隊成立 在 Josh Achiam 的領導下成立了一個新小組,專門負責確保 AI 系統切實遵循人類意圖並保持可審計性。
2026 年 2 月 任務對齊團隊解散 該團隊被解散;成員分佈到公司各處。Josh Achiam 轉任 Chief Futurist 一職。

行業影響與未來展望

業界正密切關注這次重組將如何影響 OpenAI 的產品路線圖。隨著與 Google、Anthropic 和 Meta 等競爭對手在 AGI 領域的競爭日益激烈,這些 AI 巨頭的內部結構是其優先事項的信號。

通過提升一位領導者為首席未來學家(Chief Futurist),OpenAI 承認 AI 的挑戰正在超越代碼,進入文明規模影響的領域。然而,取消專門的「任務對齊」屏障引發了人們對內部制衡機制的質疑,即在檢測到不對齊風險時,是否還有暫停或更改開發的手段。

對於更廣泛的 AI 生態系統而言,此舉強化了一種趨勢,即「安全」正變得不再是一個獨立的學科,而更多地成為一種集成的工程要求。這種集成是會帶來更強健的系統,還是會導致被忽視的漏洞,仍然是未來一年面臨的關鍵問題。

Creati.ai 將繼續監測這些內部變化如何影響即將發佈的模型版本的安全特性,特別是在 OpenAI 為其下一代前沿模型做準備之際。

精選