
歐盟委員會已正式對 X(前身為 Twitter)啟動違規程序,目標是其生成式AI(Generative AI)工具 Grok。此項在 2026 年 1 月 26 日、週一公佈的調查,標誌著歐盟在執行數位服務法(Digital Services Act,DSA)上的執法力度顯著升級。監管機構指出涉案聊天機器人所生成的非自願性性影像(NCII)與潛在兒童性虐待內容(CSAM)已造成「已成形的風險」,這對該地區的 AI 治理來說是一個關鍵時刻。
這項調查源自一波針對 Grok 影像生成功能的令人震驚的通報。與許多在開發初期即實施嚴格防護措施的競爭者不同,Grok 因被認為缺乏足夠的審查機制而受到批評。委員會的主要關切在於該 AI 能夠生成真實人物的「被操縱性露骨影像」,常被稱為 深度偽造(deepfakes)。
根據委員會說法,這些風險並非純屬理論,而是已「成形」,讓歐盟公民暴露於嚴重傷害之中。報告指出,使用者能夠利用 Grok 的功能數位化地「脫去」個人衣物,並將他們置於令人難堪或性露骨的情境中,且未經當事人同意。此一能力違反了數位服務法對安全的核心要求,該法要求非常大型線上平台(Very Large Online Platforms,VLOPs)像 X 一樣,必須主動識別並緩解系統性風險。
負責科技主權、安全與民主事務的委員會執行副主席 Henna Virkkunen 譴責此現象,表示非自願性性深度偽造構成「暴力且不可接受的貶損形式」。調查旨在釐清 X 是否未能實施有效的緩解措施,以防止此類內容被創造與散播。
此項程序有別於以往針對 X 的仇恨言論或錯誤資訊內容審查的調查。它專注於 生成式AI 與數位服務法下平台責任的交叉面向。委員會正在調查三個具體的不合規領域:
Table 1: Key Areas of the Commission's Investigation
| Investigated Area | Specific Allegation | Relevant DSA Article |
|---|---|---|
| 風險評估 | 未在於歐盟部署 Grok 前提交報告。 | Articles 34(1) and (2) |
| 減緩措施 | 對於防止生成非法內容之技術性護欄不足。 | Article 35(1) |
| 推薦系統 | 使用 Grok 演算法可能放大系統性風險。 | Article 42(2) |
在公告後,X 重申其對安全的承諾。公司發言人將查詢轉至先前一份聲明,該聲明主張對兒童性剝削與非自願裸體採取「零容忍」政策。公司表示正積極修補其安全協定中的「疏漏」。
然而,技術專家認為問題可能根源於 Grok 的訓練與部署方式。藉由將 Grok 行銷為較為「前衛」或限制較少的替代方案,與像 ChatGPT 或 Claude 等模型相比,X 可能在無意間降低了對有害輸出的門檻。「辣味模式」與其他無限制功能,雖然在某些使用者群體中受歡迎,卻與歐盟的嚴格責任框架直接衝突。
據報導,公司已針對最初的公憤限制了部分 Grok 的影像生成功能,但歐盟監管機構認為這些事後反應不足以令人信服。調查旨在查明 AI 架構本身是否缺乏歐洲法律所要求的「內建安全(safety by design)」原則。
此項調查為所有在歐盟境內營運的 AI 公司樹立了關鍵先例。它明確指出,數位服務法嚴格適用於嵌入在社交平台內的生成式AI 工具,而不僅限於使用者生成的貼文。
對於更廣泛的 AI 產業,訊息很清楚:創新速度不能以犧牲安全評估為代價。要求在部署之前提交風險評估,可能會使在歐盟市場推出新 AI 功能的速度,相較於美國來得緩慢。開發大型語言模型(Large Language Models,LLMs)與影像生成器的公司,現在必須將歐盟合規視為上市前的工程要求,而非上市後的法律障礙。
若被裁定不合規,X 將面臨重大罰款。根據數位服務法,罰金可高達公司全球年度總營業額的 6%。除了財務罰則外,委員會亦有權採取臨時措施,理論上可在安全疑慮未解決前,強制 X 在歐盟暫停 Grok 的可用性。
歐盟委員會對 X 提起的正式程序,代表了在數位服務法框架下對生成式AI 的首例重大監管測試個案。隨著調查展開,將為 AI 開發者與平台持有者劃定責任界線。對 Creati.ai 以及更廣泛的創意科技產業而言,這是一個明確的警示:在歐洲監管者眼中,生成內容的能力與代為託管內容的行為同樣承擔相等的責任。