AI News

布魯塞爾加強對生成式AI(Generative AI)合規性的審查

歐洲委員會已正式針對 X(前稱 Twitter)其人工智慧聊天機器人 Grok 展開正式違法行為程序。這項重要的監管升級於今日,2026 年 1 月 26 日星期一,對數位服務法(Digital Services Act,DSA)的執法而言是一個關鍵時刻。委員會的調查特別聚焦於指控該平台未能實施足夠的風險緩解措施,以防止 Grok 生成並散播非自願親密影像(non-consensual intimate imagery,NCII)以及其他非法內容。

此舉跟隨德國《Handelsblatt》的一篇報導,該報導援引多位高階歐盟官員稱,歐盟的執行機構準備動用 DSA 的全部力量以確保合規。這項程序突顯出快速的 AI 發展與歐洲監管機構所建立的嚴格安全框架之間日益增加的摩擦。對於 AI 產業而言,此案成為對「超大型線上平台(Very Large Online Platforms,VLOPs)」如何管理嵌入社交生態系統的生成式工具的一項關鍵壓力測試。

導火線:「裸體化(nudification)」爭議

這次監管嚴查的直接誘因似乎是一波關於 Grok 圖像生成能力的令人震驚的報告。與許多競爭對手實施對真實人物生成圖像嚴格「拒絕」機制不同,Grok—作為 X 平台對付費訂閱者整合的功能—因其較寬鬆的護欄而受到檢視。

調查揭露該工具據稱被用來創造針對可辨識個體的「深偽」色情內容,包括公眾人物,更令人不安的是還有未成年者。這些所謂的「裸體化」案例涉及使用者提示 AI 在照片中數位上剝除非同意拍攝對象的衣著。雖然據報 X 近日已推出緊急修補程式並收緊控制,但歐洲委員會的行動表明,這些事後補救措施在 DSA 要求的前瞻性風險管理下被視為不足。

歐盟科技主管 Henna Virkkunen 先前已表示現有的數位規則完全適用於由 AI 驅動的風險。此類內容的氾濫不僅侵犯受害者尊嚴,也違反 DSA 中關於保護未成年人與防止基於性別暴力的具體條款。

DSA 的義務與指控的不履行情形

數位服務法(Digital Services Act,DSA) 對被指定為 VLOPs 的平台施加了具體義務。這些實體不僅必須在接獲通知時移除非法內容,還必須主動評估並緩解體系性風險。下表概述了針對 X 的 Grok 在潛在不合規方面所調查的具體領域。

表 1:針對 生成式AI(Generative AI) 的 DSA 合規性評估

DSA Obligation Category Specific Requirement Alleged Compliance Failure
Risk Mitigation (Art. 34/35) VLOPs must assess risks regarding the dissemination of illegal content and negative effects on fundamental rights. Failure to anticipate and block the creation of non-consensual intimate imagery (NCII) prior to deployment.
Protection of Minors (Art. 28) Platforms must ensure a high level of privacy, safety, and security for minors. Grok’s availability to generate sexualized content that could depict or target minors without robust age-gating or content filtering.
Crisis Response Mechanism Rapid reaction to extraordinary circumstances affecting public security or safety. Delayed response in effectively disabling the specific "jailbreaks" used to generate harmful imagery once they went viral.
Transparency (Art. 15) Clear terms of service and transparency regarding algorithmic parameters. Lack of clarity regarding the training data used for Grok and the specific safety parameters governing its image generator.

全球性的監管夾擊

儘管歐盟以 DSA 領軍進行法律行動,對 Grok 最近內容審查失敗的反彈是全球性的。布魯塞爾的調查正與其他主要司法管轄區的平行審視同步進行,為 xAI 創造了一個複雜的合規環境。

在英國,監管機構 Ofcom 正在評估 X 是否違反其在《線上安全法》(Online Safety Act)下的責任。英國官員形容深偽內容的散播為「令人髮指」,而首相 Keir Starmer 也對該平台的安全協定表達了關切。

同時,東南亞當局採取了更為激烈的即時措施。報導指出,印尼與馬來西亞已暫時封鎖對特定 Grok 工具的存取—或在某些情況下,威脅更廣泛的平台封鎖—理由是違反當地的猥褻法規。這種國際壓力驗證了歐盟的立場:當生成式 AI 與龐大的社交分發網絡掛鉤時,所需的防護措施超越標準的軟體錯誤修補。

「不受限制」AI 的技術挑戰

衝突的核心在於 xAI 的產品願景與監管安全標準之間的哲學與技術分歧。Elon Musk 經常將 Grok 定位為對他所謂由 OpenAI 或 Google 等競爭者開發的「覺醒(woke)」AI 模型的一個「叛逆」替代方案。Grok 被設計用來回答較「辣」的問題,且拒絕的提示較少。

然而,當此方法應用於圖像生成時,「裸體化」醜聞突顯了其災難性的失效模式。從技術角度來看,該事件提出了關於模型潛在空間篩選健全性的質疑。

  • Prompt Injection Vulnerabilities(提示注入漏洞): 使用者透過「jailbreak」提示成功繞過安全過濾—這些是為混淆模型安全邏輯而設計的複雜文字輸入。
  • Training Data Sanitization(訓練數據淨化): 是否對模型進行微調時使用了能充分區分成年人自願內容與非自願剝削性影像的資料集,仍有待釐清。
  • Watermarking and Provenance(水印與來源追蹤): 調查可能還會探查 Grok 的輸出是否包含足夠的 C2PA metadata 或視覺水印,以便立即識別並下架合成內容。

潛在罰則與產業影響

對 X 而言,利害關係在財務與營運面都極為重大。根據 DSA,不合規的罰款可高達「公司全球年度總營收的 6%」。對於 X 這樣規模的公司,這可能相當於數億歐元。除了罰款之外,委員會還擁有下達「臨時措施」的權力,理論上可強制 X 在歐盟境內暫停 Grok 的服務,直到監管機構對安全問題表示滿意為止。

此程序也成為整個生成式AI(Generative AI)產業的一個風向標。它建立了先例:在公開平台上對強大的圖像生成工具進行「beta 測試」不再是大型平台可允許的策略。監管機構實際上在傳達一個訊息:那個「快速行動、造成破壞」的時代已與現代 AI 治理的安全要求不相容。

隨著這些程序在未來數月展開,業界將密切關注 xAI 是否會選擇徹底改造 Grok 的安全架構,或與布魯塞爾展開一場旷日持久的法律戰。就目前而言,這些程序的開啟標誌著歐洲對生成式 AI 監管審視的寬限期已經正式結束。

精選