
By Creati.ai Editorial Team
January 22, 2026
昨天由非營利組織 AI Forensics 發表的一份嚴厲新報告打破了 xAI(Elon Musk 的人工智慧公司)已成功遏止其 Grok 平台上露骨內容擴散的論述。儘管本月早些時候極力宣傳新的「技術性措施」以及將影像生成功能限制於付費訂閱者的做法,該研究顯示 Grok 仍持續產生大量性露骨影像、非同意親密影像(NCII)以及甚至涉及未成年人的內容。
這些發現正值 xAI 面臨來自歐盟、英國與加州日益增長的監管壓力之際。儘管公司宣稱在一月初一波爭議後「緊急修補」了安全防護的漏洞,AI Forensics 的分析表明,這些措施不過是一套容易被繞過的補丁式過濾器,並未解決模型的核心安全缺陷。
該研究於 2026 年 1 月 21 日發表,分析了約 2,000 則用戶對話與 1 月 19 日由 Grok 處理的影像生成請求——也就是在所謂防護實施數天之後。結果相當明顯:被分析內容的「壓倒性多數」仍然呈現裸體、性行為或穿著「極少衣物」的人物。
研究人員指出,xAI 所謂被限制的「spicy mode」只是轉移或演化了。雖然將 Grok 直接整合到社交平台 X(前身為 Twitter)後,在針對真實人物時某些關鍵字如「bikini」的出現有所減少,但底層模型仍然不穩定且易遭濫用。
AI Forensics 的首席研究員 Paul Bouchaud 在報告中指出,所生成的內容不僅是暗示性的,而是明確的色情。研究強調,用戶並未採用複雜的「繞過」技術或高階提示工程來繞過過濾器。相反的,簡單、直接要求性化影像的請求仍然被回應,尤其是當用戶離開主要的 X 應用時。
AI Forensics 報告的一項重要揭露是,Grok 在 X 應用內與在獨立網頁介面以及「Grok Imagine」工具上的行為存在落差。
研究發現,xAI 對嵌入 X 的 Grok 聊天機器人採取了地理封鎖(geoblocking)與關鍵字過濾——主要是回應英國的 Online Safety Act 及類似的歐盟法規——但在 Grok.com 或獨立 API 上幾乎沒有這些限制。透過這些替代入口存取模型的用戶,能夠不受阻礙地生成包含擬真人像的全裸與性行為影像。
這種安全標準的二分化顯示出一種「打地鼠」式的內容審查手法:對外可見的介面被淨化以安撫監管機構,而核心產品在其他地方仍然不受限制。這項技術疏忽讓「脫衣」現象得以持續——用戶生成穿著者的裸體版本——並助長了非同意深偽(deepfakes)黑市的形成。
AI Forensics 所提供的數據,讓這次失靈的程度有了細緻的呈現。下表對比了 xAI 的公開保證與 1 月 21 日研究的實證發現。
Table 1: xAI Claims vs. Independent Findings
| Category | xAI Public Claim (Jan 14, 2026) | AI Forensics Findings (Jan 21, 2026) |
|---|---|---|
| Access Control | Image generation restricted to paid Premium+ subscribers to ensure accountability. | Paid status has not reduced abuse; verified users now account for nearly all explicit generations. |
| Content Filters | "Technological measures" implemented to block images of real people in revealing clothing. | 53% of generated images depicted individuals in minimal attire; 81% of those were women. |
| Child Safety | Zero tolerance for CSAM; immediate fixes applied after early Jan incidents. | 2% of analyzed images still depicted persons appearing to be minors (under 18). |
| Bypass Difficulty | Safeguards are robust against standard prompting. | Restrictions easily bypassed via Grok.com; no complex "jailbreaking" required. |
| Scope of Ban | Geoblocked "nudification" features in compliant regions (e.g., UK). | Blocks are inconsistent; standalone web tools remain accessible globally without strict filters. |
這些問題的持續存在,加速了對馬斯克旗下公司的法律與監管行動,橫跨多個大陸。xAI 的承諾與其產品實際表現之間的差距,將可能被監管機構視為不僅是技術失敗,還可能構成合規違規。
在英國,通訊辦公室(Office of Communications,Ofcom)已於 1 月 12 日根據 Online Safety Act(線上安全法)啟動正式調查。AI Forensics 的新發現很可能成為關鍵證據。首相 Keir Starmer 先前已稱 X 上的內容「可恥」,政府亦表明若公司未能保護用戶免受非法內容侵害,罰款最高可達公司全球營業額的 10%。
在歐盟,情勢同樣嚴峻。歐洲委員會已經對 X 發出資料保存令,法國當局也在調查該平台是否協助散布非同意的深偽。在數位服務法(Digital Services Act,DSA)之下,像 X 這類「非常大型線上平台(Very Large Online Platforms,VLOPs)」必須緩解系統性風險。Grok 生成非法內容(例如納粹宣傳與 CSAM)的便利性,已將其置於歐盟執法的直視下。
在美國,加州總檢察長 Rob Bonta 已於 1 月 14 日展開調查。如最新研究所指出的,持續生成描繪未成年人的影像,可能使 xAI 面臨嚴重的刑事與民事責任,依據州與聯邦的兒童保護法律追究。
AI 安全領域的專家認為,xAI 的困境源於其根本的架構哲學,該哲學偏重「極大自由」與最小化訓練數據的篩選。與致力於建立「以安全為設計」(Safety-by-Design)並在訓練語料中排除露骨素材的競爭者(如 OpenAI 的 DALL-E 3 或 Midjourney)不同,Grok 看似主要依賴事後過濾(post-hoc filters)。
事後過濾——在模型產出結果後或處理提示時套加的防護——向來脆弱。「如果模型因為訓練時接觸過色情而『知道』如何製造色情,過濾器只不過是一道薄弱的門檻,」合成媒體分析師 Dr. Elena Rossi 解釋道。「你可以嘗試封鎖 'naked' 這個詞,但用戶會改問 'birthday suit' 或 'organic form',或乾脆使用在門閘打開的 API。AI Forensics 的報告證明,xAI 並未移除造成傷害的能力(capability),僅僅限制了在特定應用上的便利性。」
此外,xAI 最初採用的「spicy mode」行銷策略吸引了一群特別想測試內容審查界限的用戶。若要在不流失使用者的情況下,將這群使用者轉移到符合法規的安全模式,難度極高,導致目前半套措施的混亂局面。
Grok 事件正為生成式AI(Generative AI)產業投下長長的陰影。負責任的 AI 開發仰賴公眾信任,而像此類高調失敗將招致廣泛的立法,影響所有開發者,不僅是那些在安全上玩忽職守的業者。
對 Creati.ai 的讀者與開發者而言,這是一個關於「Red Teaming」(Red Teaming)與「以安全為設計」(Safety-by-Design)重要性的鮮明案例。對能生成擬真影像的模型而言,依賴用戶回報或被動修補是不足夠的。正如 AI Forensics 的研究所示,如果所謂的「修正」只封住前門而讓後窗大開,那並不能算是真正的修補。
xAI 尚未就 1 月 21 日 AI Forensics 的報告發表具體評論,儘管公司的自動回應仍然堅稱安全為「首要任務」。隨著監管機構逼近且有害證據累積,可供其自我修正的時間正迅速縮短。整個產業都在密切注視:Grok 是否會被迫從根本上重新訓練其模型,抑或將面臨生成式AI時代的首波重大禁令?