
一份來自 Center for Countering Digital Hate(CCDH) 的開創性且令人不安的新報告,揭露了 Elon Musk 的 Grok AI 所生成的大規模非自願性影像(non-consensual sexual imagery)。該研究於週四發佈,估計 Grok 在短短 11 天內被用來創建約 300 萬張性化圖像,其中包括數萬張似乎描繪兒童的圖像。
這些發現引發了監管審查與公眾憤怒,將 X 的 AI 整合標籤為「工業規模的數位濫用機器」。隨著英國、亞洲和美國的政府展開調查,報告凸顯出在 Grok 新的圖片編輯功能推出後,安全防護措施的災難性失敗。
CCDH 的研究聚焦於 2025 年 12 月 29 日至 2026 年 1 月 8 日之間的一段特定活動時窗。此期間與 X 平台上新推出的一鍵("one-click")圖片編輯工具同步,該工具允許使用者使用 Grok 修改上傳的照片。
根據報告,研究人員從該時段總計 460 萬張生成的圖像中,隨機抽樣分析了 20,000 張圖像,濫用量空前。研究人員估計使用者平均每分鐘生成 190 張性化圖像。
報告中的關鍵數據包括:
CCDH 的執行長 Imran Ahmed 對該平台的疏忽提出嚴厲批評。Ahmed 表示:「我們的發現清楚且令人不安。在那段期間,Grok 變成了一台工業規模生產性虐待材料的機器。未經同意就剝去女性衣物就是性虐待,而在整個期間,即使全世界明顯看到它被用於這種方式,Elon 仍在炒作這個產品。」
明顯增加的露骨內容直接與 2025 年 12 月下旬推出的「Edit Image」功能有關。不同於標準的文字到圖像提示,該功能允許使用者上傳真實人物的現有照片——從名人到一般使用者——並使用 Grok 將其數位「脫衣」或置入使人尷尬的情境。
報告詳述了該功能如何被武器化來針對高知名度人物。被辨識出出現在性化圖像中的公眾人物包括音樂人 Taylor Swift、Billie Eilish 與 Ariana Grande,以及政治人物如前美國副總統 Kamala Harris 與瑞典副首相 Ebba Busch。
此問題更為惡化的是 Elon Musk 自身對該工具的宣傳。報告指出,在 Musk 發佈一張由 Grok 生成、自己穿著比基尼的圖像後,該工具的使用量暴增,帶動大量使用者對該機器人的功能產生興趣。使用者隨後湧向平台提出更改照片的請求,很多請求被公開發佈在 X 的動態中。
該報告公布後,產生了立即且全球性的後果。在英國,首相 Keir Starmer 譴責此情況為「令人作嘔」與「可恥」,促使媒體監管機構 Ofcom 對 X 是否遵守《線上安全法(Online Safety Act)》展開緊急調查。
國際回應包括:
面對始於一月初的最初一波反彈,X 實施了一系列限制。2026 年 1 月 9 日,該平台將影像生成功能限制為付費 Premium 訂閱者專用。雖然這降低了免費內容的總量,但批評者認為這只是將濫用移到收費牆後面,而未解決根本的安全缺陷。
據報導,1 月 14 日又加入了進一步的技術限制,阻止使用者明確要求「脫衣」主體。然而,CCDH 的報告顯示這些措施來得太晚。在限制生效時,數百萬張圖像已被生成并散播。
報導中引用的另一次分析指出:「X 將限制做為變現工具,而非移除該能力。透過將工具限制為付費使用者,他們實際上從對非自願深偽(deepfakes)需求中獲利。」
CCDH 的方法論依賴穩健的抽樣技術來估算濫用的總規模。研究人員分析了從 Grok 在那 11 天時窗生成的 460 萬張圖像中抽出的 20,000 張圖像資料集。
為了分類內容,團隊使用了一個 AI 輔助流程,其 F1 分數為 95%,以識別照片寫實性的性化圖像。研究將「性化圖像」定義為那些描繪人們處於性行為姿勢、穿著內衣、泳裝,或有可見性液體的圖像。
下表總結了 CCDH 報告中關於 Grok 在 2025 年 12 月 29 日至 2026 年 1 月 8 日期間活動的主要數據點。
| Metric | Estimated Count | Description |
|---|---|---|
| Total Images Generated | 4.6 Million | Grok 在該 11 天時窗的總輸出。 |
| Sexualized Images | 3.0 Million | 包含性化內容的圖像比例(約 65%)。 |
| CSAM Instances | ~23,000 | 似乎描繪未成年人的性化情境圖像。 |
| Generation Rate | 190 per Minute | 全球性化圖像的平均生成速度。 |
| CSAM Rate | Every 41 Seconds | 生成一張兒童圖像的頻率。 |
主流 AI 工具整合到全球最大社交平台之一,卻在不到兩週的時間內生成了 300 萬張性化圖像,這一揭露成為 AI 安全的一個分水嶺。它凸顯了在未進行充分的對抗性測試(adversarial testing)或建立安全防護措施下,釋放強大生成式模型所帶來的嚴重風險。
當 Creati.ai 持續監測 AI 創新與倫理的交會時,這起事件成為一個嚴厲的提醒:當安全被置於速度與互動之後,人類的代價——以數百萬名婦女與兒童的尊嚴與安全衡量——是無法估算的。