AI News

歐盟委員會對 Elon Musk 的 Grok 聊天機器人啟動正式侵權程序

歐盟委員會即將對 xAI 的生成式AI(Generative AI)聊天機器人 Grok 展開正式侵權程序,這標誌著歐盟與 Elon Musk 技術帝國之間監管對峙的重大升級。根據最先由德國商業日報 Handelsblatt 披露並由高階歐盟官員證實的報導,調查將於週一正式展開,目標鎖定涉嫌違反《數位服務法(Digital Services Act,DSA)》的行為。

此具決定性的行動是在數週來針對 Grok 內容生成能力的嚴密審視之後發動,特別是有報導指出該工具(直接整合在社群媒體平台 X)被用來創造非經同意的、性露骨的深偽影像(deepfake imagery)。若未能迅速達到合規要求,這些程序可能會迫使 xAI 完全撤出歐盟市場。

觸發因素:「Spicy Mode」與系統性風險失靈

此次監管打擊的導火線似乎是最近圍繞 Grok 所謂「Spicy Mode」的爭議。2026 年 1 月初,使用者回報該聊天機器人的影像生成功能可被操縱以「脫掉」真實個體的衣物,並生成逼真且露骨的女性與未成年人影像。

儘管 xAI 在全球輿論譁然後已限制這些特定功能,歐盟委員會指控該公司在推出這些功能之前,未依法進行強制性風險評估。根據《數位服務法》,像 X 這類指定之非常大型線上平台(VLOPs)有法律義務識別、分析並減緩系統性風險,特別是那些影響使用者身心健康與未成年人保護的風險。

委員會官員形容這些影像的擴散為「令人髮指」且「噁心」,這顯示歐盟不再願意在生成式AI安全問題上容忍「快速行動、事後修補」(move fast and break things)的做法。

調查架構

調查預計將聚焦於多個《DSA》合規的核心支柱。不同於將針對產品的即將生效的《人工智慧法(AI Act)》,《DSA》強調平台治理與內容審查。因為 Grok 被嵌入在 X 之中,其失誤被視為主平台的系統性失靈。

針對 Grok 的 DSA 調查重點範疇

Investigation Area Specific Allegations Potential Regulatory Impact
系統性風險緩解 在功能上線前,未評估生成非法內容(例如兒童性虐待影像(CSAM)、非經同意影像)之風險。 強制風險審計並部署緩解措施。
內容審查 偵測與快速移除 AI 生成非法內容的機制不足。 下令全面檢修審查演算法與人力監督制度。
未成年人保護 年齡驗證與防護不足,未能阻止未成年人存取或被工具描繪。 嚴格的存取控管,並可能對未成年人封鎖服務。
透明義務 對用於訓練 Grok 的資料與其生成演算法運作缺乏說明。 若不遵從,最高可處以相當於全球營業額 6% 的罰款。

緊張局勢升級:一連串不合規的模式

這項新程序並非孤立事件,而是布魯塞爾與 Elon Musk 之間裂痕擴大的最新一章。2025 年 12 月,歐盟委員會因 X 在使用者介面設計(特別是關於「藍勾」驗證)與廣告透明度方面的違規,對 X 罰鍰約 €120 million

委員會已經動用緊急權力,命令 X 保存所有與 Grok 相關的內部文件與資料,保存期限至 2026 年底。這項「保存命令」顯示監管機構正在建立一個全面的法律案,以證明 xAI 為了快速推出功能而有意忽視安全規範。

若被判定違法,X 可能面臨最高相當於其全球年度營業額 6% 的罰鍰。然而,對 Grok 在歐洲營運的更直接且存在性威脅,是委員會有權採取「臨時措施」,在風險被認定已中和之前實質上禁止該服務在歐盟提供。

產業影響:將《DSA》視為 AI 的執法工具

對於更廣泛的科技部門來說,此案是重要的先例案例。它顯示歐盟打算在專門的《人工智慧法》尚未全面實施前,就利用 數位服務法 作為對生成式AI(Generative AI)風險的主要執法工具。

在歐盟營運的科技公司現在必須認識到,將 AI 工具整合到既有社群平台,會將這些工具納入嚴格的平台責任法規範疇。曾經保護平台免於為使用者生成內容負責的「安全港」防禦(safe harbor)在當平台自有工具促成該等內容產生時,愈來愈不適用。

Creati.ai 指出,這項調查凸顯了 AI 開發者面臨的巨大合規負擔。影像生成的創新現在必須與強而有力的部署前紅隊測試(red-teaming)與安全防護措施並行,才能在歐盟的監管環境中存活。隨著程序於本週一啟動,科技界將拭目以待 Musk 是否選擇遵從布魯塞爾的要求,或冒著失去 4.5 億名使用者市場的風險。

精選