
歐洲委員會已正式針對 X(前稱 Twitter)其人工智慧聊天機器人 Grok 展開正式違法行為程序。這項重要的監管升級於今日,2026 年 1 月 26 日星期一,對數位服務法(Digital Services Act,DSA)的執法而言是一個關鍵時刻。委員會的調查特別聚焦於指控該平台未能實施足夠的風險緩解措施,以防止 Grok 生成並散播非自願親密影像(non-consensual intimate imagery,NCII)以及其他非法內容。
此舉跟隨德國《Handelsblatt》的一篇報導,該報導援引多位高階歐盟官員稱,歐盟的執行機構準備動用 DSA 的全部力量以確保合規。這項程序突顯出快速的 AI 發展與歐洲監管機構所建立的嚴格安全框架之間日益增加的摩擦。對於 AI 產業而言,此案成為對「超大型線上平台(Very Large Online Platforms,VLOPs)」如何管理嵌入社交生態系統的生成式工具的一項關鍵壓力測試。
這次監管嚴查的直接誘因似乎是一波關於 Grok 圖像生成能力的令人震驚的報告。與許多競爭對手實施對真實人物生成圖像嚴格「拒絕」機制不同,Grok—作為 X 平台對付費訂閱者整合的功能—因其較寬鬆的護欄而受到檢視。
調查揭露該工具據稱被用來創造針對可辨識個體的「深偽」色情內容,包括公眾人物,更令人不安的是還有未成年者。這些所謂的「裸體化」案例涉及使用者提示 AI 在照片中數位上剝除非同意拍攝對象的衣著。雖然據報 X 近日已推出緊急修補程式並收緊控制,但歐洲委員會的行動表明,這些事後補救措施在 DSA 要求的前瞻性風險管理下被視為不足。
歐盟科技主管 Henna Virkkunen 先前已表示現有的數位規則完全適用於由 AI 驅動的風險。此類內容的氾濫不僅侵犯受害者尊嚴,也違反 DSA 中關於保護未成年人與防止基於性別暴力的具體條款。
數位服務法(Digital Services Act,DSA) 對被指定為 VLOPs 的平台施加了具體義務。這些實體不僅必須在接獲通知時移除非法內容,還必須主動評估並緩解體系性風險。下表概述了針對 X 的 Grok 在潛在不合規方面所調查的具體領域。
表 1:針對 生成式AI(Generative AI) 的 DSA 合規性評估
| DSA Obligation Category | Specific Requirement | Alleged Compliance Failure |
|---|---|---|
| Risk Mitigation (Art. 34/35) | VLOPs must assess risks regarding the dissemination of illegal content and negative effects on fundamental rights. | Failure to anticipate and block the creation of non-consensual intimate imagery (NCII) prior to deployment. |
| Protection of Minors (Art. 28) | Platforms must ensure a high level of privacy, safety, and security for minors. | Grok’s availability to generate sexualized content that could depict or target minors without robust age-gating or content filtering. |
| Crisis Response Mechanism | Rapid reaction to extraordinary circumstances affecting public security or safety. | Delayed response in effectively disabling the specific "jailbreaks" used to generate harmful imagery once they went viral. |
| Transparency (Art. 15) | Clear terms of service and transparency regarding algorithmic parameters. | Lack of clarity regarding the training data used for Grok and the specific safety parameters governing its image generator. |
儘管歐盟以 DSA 領軍進行法律行動,對 Grok 最近內容審查失敗的反彈是全球性的。布魯塞爾的調查正與其他主要司法管轄區的平行審視同步進行,為 xAI 創造了一個複雜的合規環境。
在英國,監管機構 Ofcom 正在評估 X 是否違反其在《線上安全法》(Online Safety Act)下的責任。英國官員形容深偽內容的散播為「令人髮指」,而首相 Keir Starmer 也對該平台的安全協定表達了關切。
同時,東南亞當局採取了更為激烈的即時措施。報導指出,印尼與馬來西亞已暫時封鎖對特定 Grok 工具的存取—或在某些情況下,威脅更廣泛的平台封鎖—理由是違反當地的猥褻法規。這種國際壓力驗證了歐盟的立場:當生成式 AI 與龐大的社交分發網絡掛鉤時,所需的防護措施超越標準的軟體錯誤修補。
衝突的核心在於 xAI 的產品願景與監管安全標準之間的哲學與技術分歧。Elon Musk 經常將 Grok 定位為對他所謂由 OpenAI 或 Google 等競爭者開發的「覺醒(woke)」AI 模型的一個「叛逆」替代方案。Grok 被設計用來回答較「辣」的問題,且拒絕的提示較少。
然而,當此方法應用於圖像生成時,「裸體化」醜聞突顯了其災難性的失效模式。從技術角度來看,該事件提出了關於模型潛在空間篩選健全性的質疑。
對 X 而言,利害關係在財務與營運面都極為重大。根據 DSA,不合規的罰款可高達「公司全球年度總營收的 6%」。對於 X 這樣規模的公司,這可能相當於數億歐元。除了罰款之外,委員會還擁有下達「臨時措施」的權力,理論上可強制 X 在歐盟境內暫停 Grok 的服務,直到監管機構對安全問題表示滿意為止。
此程序也成為整個生成式AI(Generative AI)產業的一個風向標。它建立了先例:在公開平台上對強大的圖像生成工具進行「beta 測試」不再是大型平台可允許的策略。監管機構實際上在傳達一個訊息:那個「快速行動、造成破壞」的時代已與現代 AI 治理的安全要求不相容。
隨著這些程序在未來數月展開,業界將密切關注 xAI 是否會選擇徹底改造 Grok 的安全架構,或與布魯塞爾展開一場旷日持久的法律戰。就目前而言,這些程序的開啟標誌著歐洲對生成式 AI 監管審視的寬限期已經正式結束。