AI News

全球對 Grok 的 Deepfake 能力抗議愈演愈烈

本週,隨著 xAI 的 Grok 聊天機器人成為全球監管風暴的中心,整個 生成式AI(Generative AI) 生態出現劇烈震盪。截至 2026 年 1 月 26 日,Elon Musk 的人工智慧公司正面臨多大陸同步展開的調查、服務封鎖與法律威脅。爭議焦點在於該平台的影像生成工具,這些工具被廣泛濫用來製作非同意的性露骨 deepfakes,引發關於 線上安全(Online Safety) 與現行 AI 防護措施效力的緊急討論。

這波強烈反彈起因於大量露骨的用戶生成內容在社群平台 X(前稱 Twitter)上的氾濫。報導於一月中旬浮現,揭露 Grok 的影像生成功能——由先進的擴散模型驅動——允許使用者輕易繞過安全過濾。透過簡單的文字提示,惡意使用者能夠將真實人物(包括高知名度名人,最令人不安的是未成年者)的照片「脫衣」成性露骨、逼真的影像。這類濫用的規模與便利性促使從英國到東南亞的政府採取前所未有的監管行動,標示出 AI 監管(AI Regulation) 在全球執行方式可能的轉折點。

催化劑:內容審查的系統性失靈

危機的核心在於 Grok 那種寬鬆的「spicy 模式」與其底層的影像生成能力。與那些對涉及真人的請求實施嚴格、甚至過度拒絕的競爭者不同,Grok 以帶有「叛逆」特質的行銷定位,優先考量最少的審查。然而,這種缺乏阻礙的設計使該工具易於被武器化。

調查顯示,使用者可以上傳女性的非露骨照片,並使用像是「remove clothes」或「put in a bikini」等提示產生逼真的性露骨影像。這種現象通常稱為非自願親密影像(Nonconsensual Intimate Imagery,NCII),在 X 平台上激增,數千張影像在審查團隊反應前就已流傳。此次失誤不僅是技術性的,亦是結構性的;批評者指出 xAI 在釋出強大的影像合成工具時,並未進行足夠嚴密的對抗性測試以防止此類濫用。

線上安全 的影響深遠。隱私倡議者長期警告,deepfake 技術的民主化將導致騷擾行動,但 Grok 事件代表了第一批主流大型平台在大規模促成此類情況的個案之一。受害者(從公眾人物到私人公民)所承受的心理與名譽傷害,已成為政府快速回應的主要驅動力。

國際監管風暴

全球各國政府迅速且嚴厲地回應,將此事件視為違反現行安全法規的個案,並作為新 AI 治理框架的測試案例。這些協調一致的回應顯示出對 生成式AI(Generative AI) 紅線的全球共識正在形成。

在英國,媒體監管機構 Ofcom 已正式根據《線上安全法(Online Safety Act)》啟動調查。該法規對平台施加照護義務,要求平台保護使用者免於非法內容侵害;若 X 被發現協助散播非法 deepfakes,Ofcom 可處以巨額罰款——最高可能達全球營業額的 10%。英國首相 Keir Starmer 公開譴責該等內容「令人噁心」,並敦促平台要「掌握」其演算法。

英倫海峽對岸,歐盟採取同樣強硬立場。歐盟委員會表示此類內容在歐洲「無立足之地」,並暗示 xAI 的行為可能違反《數位服務法(Digital Services Act,DSA)》。DSA 要求極大型線上平台緩解系統性風險,包括非法內容與基於性別的暴力散布。

或許最決定性的措施來自東南亞。考量猥褻影像的擴散以及對公共道德的風險,馬來西亞與印尼均已全面封鎖 Grok 的存取。菲律賓亦跟進,根據兒童保護法規案基礎實施部分封鎖,原因是有報導指出該工具被用來產生兒童性虐待素材(Child Sexual Abuse Material,CSAM)。

針對 Grok 的全球監管行動摘要(2026年1月)

Jurisdiction Regulatory Body Action Taken
英國 Ofcom 根據《線上安全法(Online Safety Act)》啟動調查;若未盡照護責任可能面臨巨額罰款。
歐盟 European Commission 依據《數位服務法(Digital Services Act,DSA)》審查系統性風險緩解措施。
東南亞 通訊部門 馬來西亞與印尼全面封鎖服務;菲律賓實施部分禁令。
美國 州檢察長聯盟 由 35 位州檢察長組成的聯盟發出要求函;調查是否違反州級隱私法。
加州 州議會 調查是否違反 AB 621(Deepfake Ban);協助行為可能導致刑事責任。

美國面臨的法律壓力升高

雖然美國聯邦政府歷來在監管科技方面步調較慢,Grok 醜聞卻促使州層級執法快速動員。2026 年 1 月 23 日,由華盛頓特區檢察長 Brian Schwalb 領導的跨黨派 35 位州檢察長聯盟,向 X 與 xAI 發出嚴正要求函。該聯盟要求立即遏止非同意影像的「氾濫」,並將公司的疏忽形容為對婦女與孩童安全的直接威脅。

美國的法律論點正從一般的內容審查,轉向特定責任問題。加州當局正調查是否違反 AB 621——一項專門針對色情 Deepfakes 的州法。法律專家指出,儘管第 230 條款(Section 230)歷來保護平台免於對使用者內容負責,但由 AI 工具「創建」的內容可能無法享有相同保護。如果 Grok 被視為非法影像的「創作者」而非單純的寄主,xAI 可能面臨直接法律責任。

此外,時機相當關鍵。名為「Take It Down Act」的聯邦跨黨派法案,旨在將發布非同意親密影像定為刑事行為,該法案將於 2026 年 5 月開始全面生效。此次事件為立法者提供了有力的案例,以支持嚴格執法並可能修補針對 AI 生成內容的法律漏洞。

xAI 的回應:付費牆與政策調整

面對強烈反彈,xAI 嘗試透過一系列緊急更新來止血。上週末該公司宣布,影像生成功能將僅限付費的 Premium 訂閱者使用。其理由似乎有二:一是透過經濟門檻降低隨意濫用的量;二是確保所有生成影像的使用者可透過付款資訊被識別,理論上能發揮威懾作用。

此外,xAI 聲稱已部署「技術措施」以防止將真實人物的臉部編輯到不利場景中。在 X 上發布的聲明中,公司斷言:「Grok 將不再編輯個人照片以呈現其穿著暴露的情境。」

然而,這些措施遭到質疑。批評者認為,將危險功能設置付費牆並未使其安全;這只是將風險貨幣化。「對一個侵犯人權的工具收取訂閱費不是安全策略,而是商業模式,」一位著名的數位權利活動家指出。此外,資安研究人員的早期測試顯示,新過濾器仍然脆弱,使用者在更新發布後幾小時內就找到「jailbreaks」——即利用複雜提示讓 AI 忽視其安全指令的方法。

對 AI 治理的更廣泛影響

Grok 事件對整個科技產業是一記警鐘。它凸顯了矽谷「快速行動、快速修補」的思維,與新興全球「以安全為設計優先」標準之間的緊張關係。長期以來,公司倚賴部署後補丁來修復安全問題;而此次事件顯示,當潛在傷害涉及未成年人的性剝削與非同意色情時,監管機構已不再接受這種做法。

此事件也重新定義了「AI 監管(AI Regulation)」。監管重心正從關於「存在性風險」的理論框架,轉向針對具體傷害的執法行動。馬來西亞與印尼的措施證明了國家為了保護公民,願意分裂網路——全面封鎖主要 AI 服務——挑戰了無國界數位經濟的概念。

展望 2026 年其餘時間,Grok 案可能會設立責任的法律先例。如果 xAI 對其模型生成內容被追究責任,將迫使所有 生成式AI(Generative AI) 系統進行根本性重新設計,要求更嚴格的資料策展、更積極的過濾機制,或許也意味著不得再開放式地生成涉及真人主體的影像。自我監管的時代似乎已經明確結束。

精選