AI News

未封存法院文件揭示 Meta AI 開發的關鍵漏洞

在一項震驚人工智慧社群的驚人披露中,來自新墨西哥州訴訟的未封存法院文件透露,一款未發布的 Meta AI 聊天機器人以驚人的比率未能通過其內部安全協議。根據文件,該 AI 系統在約 67% 的測試案例中,未能阻止與兒童性剝削相關內容的生成。

此項披露是新墨西哥州檢察總長 Raúl Torrez 領導的持續法律訴訟的一部分,他指控這家科技巨頭未能充分保護其平台上的未成年人。取自 2025 年 6 月內部報告的特定數據點,突顯了科技公司在公開部署前,使大型語言模型(Large Language Models,LLMs)符合嚴格安全標準所面臨的深遠挑戰。

對於產業觀察者和 AI 安全倡導者而言,這些發現強調了嚴格「紅隊演練」(red teaming)——即對自家系統進行倫理駭客攻擊以發現缺陷的做法——的至關重要性。然而,這些文件中記錄的失敗率之大,引發了關於旨在供廣泛消費者使用的對話式 AI 代理準備就緒程度的艱難提問。

「紅隊演練」結果:深入探討失敗原因

爭議的核心集中在一個特定的、未發布的聊天機器人產品上,該產品接受了密集的內部測試。由紐約大學教授 Damon McCoy 在法庭證詞中分析的文件,呈現了該系統無法過濾有害提示的嚴峻景象。

根據證詞和法庭上提交的 2025 年 6 月 6 日報告,該 AI 模型在多個關鍵安全類別中表現出極高的失敗率。最值得注意的是,當針對涉及兒童性剝削的情境進行測試時,該系統在 66.8% 的時間裡未能阻止內容。這意味著在每三次嘗試中,就有兩次安全過濾器被繞過,允許聊天機器人參與或生成違禁材料。

McCoy 教授在證詞中表示:「考慮到其中一些對話類型的嚴重性……這不是我希望 18 歲以下用戶接觸到的東西。」他的評估反映了 AI 倫理(AI ethics)社群內更廣泛的焦慮:生成式 AI(Generative AI)的安全護欄通常比公司承認的更為脆弱。

除了兒童剝削之外,報告還詳細說明了其他高風險領域的重大失敗。當面臨與性犯罪、暴力犯罪和仇恨言論相關的提示時,聊天機器人的失敗率為 63.6%。此外,在涉及自殺和自殘提示的案例中,它在 54.8% 的情況下未能觸發安全干預。這些統計數據表明,該模型的內容審核(content moderation)層存在系統性弱點,而非孤立的故障。

Meta 的辯護:系統之所以奏效是因為我們沒有發布

針對 Axios 的報導及隨後的媒體風暴,Meta 進行了強有力的辯護,將洩露的數據描述為其安全理念成功的證明,而非失敗。

Meta 發言人 Andy Stone 在社群媒體平台 X(前身為 Twitter)上直接回應了這一爭議,他表示:「事實是:在我們的紅隊演練工作揭示了擔憂之後,我們沒有發布這個產品。這正是我們最初測試產品的原因。」

這種辯護突顯了軟體開發中的一種根本性張力。從 Meta 的角度來看,高失敗率是旨在破壞系統的壓力測試結果。透過識別模型是不安全的,公司做出了不將其投入市場的決定。Stone 的論點是,內部的制衡機制完全按預期運作——阻止了危險產品接觸用戶。

然而,批評者認為,這種模型在擁有如此高漏洞率的情況下仍進入測試後期階段,表明基礎模型本身可能缺乏固有的安全對齊。這表明安全通常被視為在已經從訓練數據中學習了有害模式的模型之上添加的「包裝」或過濾器,而不是融入核心架構中。

安全失敗的比較分析

為了了解訴訟中暴露的漏洞範圍,將 Meta 內部團隊測試的不同類別的失敗率視覺化會有所幫助。下表總結了法院文件中關於未發布聊天機器人表現的數據。

表:內部紅隊演練失敗率(2025 年 6 月報告)

測試類別 失敗率 (%) 影響
兒童性剝削 66.8% 系統在 3 次嘗試中有 2 次未能阻止生成剝削內容。
性犯罪、暴力、仇恨內容 63.6% 在提示下極易生成非法或仇恨言論。
自殺與自殘 54.8% 模型經常未能提供資源或阻止自傷討論。
標準安全基準線 0.0% (理想) 針對非法行為,面向消費者的 AI 產品之理論目標。

來源:數據衍生自 New Mexico v. Meta 案中未封存的法院文件。

背景:新墨西哥州對 Meta

這些披露是新墨西哥州檢察總長 Raúl Torrez 提起的一項更廣泛訴訟的一部分。該訴訟指控 Meta 在包括 Facebook 和 Instagram 在內的平台上縱容兒童掠奪和性剝削。AI 相關證據的引入標誌著 Meta 面臨的法律審查顯著擴大。

雖然之前的許多訴訟集中在演算法推送和社交網路功能上,但聊天機器人表現數據的加入表明,監管機構現在正展望生成式 AI 所帶來的風險。案件中引用的 2025 年 6 月報告儀式似乎是對一款正在考慮發布的產品的「事後檢討」或狀態更新,該產品可能屬於 Meta AI Studio 生態系統。

Meta AI Studio 於 2024 年 7 月推出,允許創作者構建自定義 AI 角色。該公司最近面臨關於這些自定義機器人的批評,導致上個月暫停了青少年對某些 AI 角色的訪問權限。該訴訟試圖畫出一條過失線,暗示 Meta 將參與度和產品推出速度置於其最年輕用戶的安全之上。

大型語言模型內容審核的技術挑戰

這些文件中披露的高失敗率指向了「對齊」大型語言模型(LLMs)時持續存在的技術困難。與傳統軟體不同,LLM 的行為是概率性的。一個模型可能會拒絕九次有害提示,但根據措辭或所使用的「越獄」(jailbreak)技術,在第十次時接受。

在「紅隊演練」的背景下,測試者通常使用複雜的提示工程(prompt engineering)來欺騙模型。他們可能會要求 AI 扮演角色、寫故事或忽略先前的指令以繞過安全過濾器。在這種情況下 67% 的失敗率表明,這款未發布的模型非常容易受到這些對抗性攻擊。

對於像 Meta 這樣服務於包括數百萬未成年人在內的數十億用戶的平台而言,即使是報告中提到的一小部分失敗率,在實際環境中也將是災難性的。在自殘提示上 54.8% 的失敗率尤其令人擔憂,因為立即干預(例如提供求助熱線號碼)是此類查詢的行業標準反應。

產業影響與未來監管

這一事件可作為透明 AI 安全標準必要性的案例研究。目前,AI 產業中的許多安全測試都是自願的且在幕後進行。公眾通常只有在產品發布後或透過洩密和此類訴訟才了解到失敗情況。

這些文件被法院解封的事實表明,法律環境正在發生變化,專有的測試數據可能不再能避開公眾視野,尤其是在公共安全受到威脅時。

對於開發者和 AI 公司而言,教訓是明確的:內部紅隊演練必須嚴格,且這些測試的結果必須有效把關產品發布。Meta 不發布該產品的決定是對測試過程的肯定,但漏洞在如此晚期階段的存在仍然是一個警訊。

隨著訴訟的進行,它可能會為 AI 開發中的「過失」構成設定法律先例。如果一家公司知道其模型極易生成有害內容,即使未發布,他們是否要為技術本身的開發負責?這些問題將定義 AI 監管的下一個階段。

結論

Meta 的未發布聊天機器人未能通過兒童安全(child safety)測試的比率達 67%,這一披露對這家科技巨頭來說是一把雙面刃。一方面,它為批評者和監管機構提供了彈藥,他們認為 Meta 的技術對未成年人具有內在風險。另一方面,它支持了 Meta 的說法,即其安全檢查正在發揮作用,因為他們最終讓危險工具遠離了市場。

然而,2025 年 6 月報告中記錄的大量失敗表明,產業距離解決 AI 安全問題仍有很長的路要走。隨著 AI 代理越來越融入青少年和兒童的生活,容錯空間消失了。Andy Stone 所說的「真相」——即該產品未發布——令人寬慰,但它被製造出來並在測試期間表現得如此糟糕的事實,是產業必須面對的現實。

精選