AI News

歐盟委員會對 X 的 Grok AI 因安全違規展開正式調查

歐盟委員會已正式對 X(前身為 Twitter)啟動違規程序,目標是其生成式AI(Generative AI)工具 Grok。此項在 2026 年 1 月 26 日、週一公佈的調查,標誌著歐盟在執行數位服務法(Digital Services Act,DSA)上的執法力度顯著升級。監管機構指出涉案聊天機器人所生成的非自願性性影像(NCII)與潛在兒童性虐待內容(CSAM)已造成「已成形的風險」,這對該地區的 AI 治理來說是一個關鍵時刻。

導火線:「已成形的風險」與公眾傷害

這項調查源自一波針對 Grok 影像生成功能的令人震驚的通報。與許多在開發初期即實施嚴格防護措施的競爭者不同,Grok 因被認為缺乏足夠的審查機制而受到批評。委員會的主要關切在於該 AI 能夠生成真實人物的「被操縱性露骨影像」,常被稱為 深度偽造(deepfakes)

根據委員會說法,這些風險並非純屬理論,而是已「成形」,讓歐盟公民暴露於嚴重傷害之中。報告指出,使用者能夠利用 Grok 的功能數位化地「脫去」個人衣物,並將他們置於令人難堪或性露骨的情境中,且未經當事人同意。此一能力違反了數位服務法對安全的核心要求,該法要求非常大型線上平台(Very Large Online Platforms,VLOPs)像 X 一樣,必須主動識別並緩解系統性風險。

負責科技主權、安全與民主事務的委員會執行副主席 Henna Virkkunen 譴責此現象,表示非自願性性深度偽造構成「暴力且不可接受的貶損形式」。調查旨在釐清 X 是否未能實施有效的緩解措施,以防止此類內容被創造與散播。

監管焦點:數位服務法(DSA)

此項程序有別於以往針對 X 的仇恨言論或錯誤資訊內容審查的調查。它專注於 生成式AI 與數位服務法下平台責任的交叉面向。委員會正在調查三個具體的不合規領域:

  1. 未能進行風險評估: 數位服務法要求平台在部署可能會對平台風險輪廓產生重大影響的新功能之前,必須進行並提交全面的風險評估。委員會指控 X 在於歐盟推出 Grok 的影像生成功能之前,未能提供這項「臨時風險評估」。
  2. 減緩措施不足: 調查將審查 X 所聲稱已實施的保護措施,是否在技術上足以防止生成非法內容,特別是 CSAM 與基於性別的暴力內容。
  3. 推薦系統: 同時,委員會已將一項自 2023 年 12 月開啟的既有調查擴大,涵蓋 X 決定將 Grok 整合進其推薦系統的行為。當局擔憂使用 Grok 來策劃使用者資訊流,可能會放大有害內容而非壓制它們。

Table 1: Key Areas of the Commission's Investigation

Investigated Area Specific Allegation Relevant DSA Article
風險評估 未在於歐盟部署 Grok 前提交報告。 Articles 34(1) and (2)
減緩措施 對於防止生成非法內容之技術性護欄不足。 Article 35(1)
推薦系統 使用 Grok 演算法可能放大系統性風險。 Article 42(2)

X 的回應與技術性辯護

在公告後,X 重申其對安全的承諾。公司發言人將查詢轉至先前一份聲明,該聲明主張對兒童性剝削與非自願裸體採取「零容忍」政策。公司表示正積極修補其安全協定中的「疏漏」。

然而,技術專家認為問題可能根源於 Grok 的訓練與部署方式。藉由將 Grok 行銷為較為「前衛」或限制較少的替代方案,與像 ChatGPT 或 Claude 等模型相比,X 可能在無意間降低了對有害輸出的門檻。「辣味模式」與其他無限制功能,雖然在某些使用者群體中受歡迎,卻與歐盟的嚴格責任框架直接衝突。

據報導,公司已針對最初的公憤限制了部分 Grok 的影像生成功能,但歐盟監管機構認為這些事後反應不足以令人信服。調查旨在查明 AI 架構本身是否缺乏歐洲法律所要求的「內建安全(safety by design)」原則。

對 AI 產業的影響

此項調查為所有在歐盟境內營運的 AI 公司樹立了關鍵先例。它明確指出,數位服務法嚴格適用於嵌入在社交平台內的生成式AI 工具,而不僅限於使用者生成的貼文。

對於更廣泛的 AI 產業,訊息很清楚:創新速度不能以犧牲安全評估為代價。要求在部署之前提交風險評估,可能會使在歐盟市場推出新 AI 功能的速度,相較於美國來得緩慢。開發大型語言模型(Large Language Models,LLMs)與影像生成器的公司,現在必須將歐盟合規視為上市前的工程要求,而非上市後的法律障礙。

若被裁定不合規,X 將面臨重大罰款。根據數位服務法,罰金可高達公司全球年度總營業額的 6%。除了財務罰則外,委員會亦有權採取臨時措施,理論上可在安全疑慮未解決前,強制 X 在歐盟暫停 Grok 的可用性。

結論

歐盟委員會對 X 提起的正式程序,代表了在數位服務法框架下對生成式AI 的首例重大監管測試個案。隨著調查展開,將為 AI 開發者與平台持有者劃定責任界線。對 Creati.ai 以及更廣泛的創意科技產業而言,這是一個明確的警示:在歐洲監管者眼中,生成內容的能力與代為託管內容的行為同樣承擔相等的責任。

精選