
隨著資訊專員公署(Information Commissioner's Office,ICO)對 X(前身為 Twitter)及其人工智慧子公司 xAI 展開正式調查,英國人工智慧監管的情勢顯著加劇。此項調查聚焦於 Grok AI 模型的功能,特別是針對該工具被用於生成非自願性侵害深偽技術(Deepfakes)的報導,其中包括涉及未成年人的內容。隨著生成式 AI(Generative AI)的邊界持續擴張,此次調查標誌著在社群媒體和自動化內容創作領域執行資料保護標準的關鍵時刻。
ICO 的調查並非孤立的監管行動,而是涉及其他英國主要監管機構協調努力的一部分。它突顯了 AI 的快速發展與建立強大安全護欄必要性之間日益緊張的關係。此次調查的核心問題在於 X 和 xAI 是否採取了足夠的預防措施,以防止其技術被武器化來對付個人,從而違反既有的資料保護法。
資訊專員公署(ICO)是為維護資訊權利而成立的英國獨立機構,已明確表示其調查將審查 Grok 平台處理個人資料的方式。核心疑慮圍繞在 AI 模型利用個人資料生成新影像的機制。當 AI 工具在未經當事人同意的情況下(特別是在性化語境下)創建出逼真的個人樣貌時,這引發了關於處理該個人資料之法律基礎的嚴重質疑。
ICO 監管風險與創新執行總監 William Malcolm 強調了指控的嚴重性。他指出,在當事人不知情的情況下生成親密或性化的影像,代表了對個人資料控制權的重大喪失。這種控制權的喪失會對受害者造成即時且持久的傷害,當受害者是兒童時,這種風險會成倍增加。
ICO 的授權使其能夠評估 X Internet Unlimited Company 和 xAI 是否遵守了英國嚴格的資料保護框架,包括《英國一般資料保護規範》(UK GDPR)。重點關注領域可能包括:
如果 ICO 發現 X 未能履行其義務,該監管機構有權發布執行通知並徵收鉅額罰款,向生成式 AI 領域的其他實體發出嚴厲警告。
此次監管干預的導火線是一系列報導,指出 Grok 使用者可以繞過安全過濾器,為真實個人創建露骨的深偽內容。與傳統的影像編輯不同,生成式 AI 允許根據文字提示快速創建超逼真的合成媒體。針對 Grok 的具體指控表明,該工具被用於生成非自願性影像,這種行為是英國政府正在積極推動入罪化的做法。
深偽技術對監管機構而言是一項獨特的挑戰,因為它們處於侵犯隱私、騷擾和錯誤訊息的交集。在 ICO 調查的背景下,重點仍然放在「輸入」端(如何攝取和處理真實人物的個人資料、影像和姓名)以及「輸出」端(這些資料如何被重新組合成有害內容)。
這些工具的易取得性加劇了這個問題。隨著 AI 模型變得更加高效,創建惡意內容的門檻也隨之降低。ICO 的干預表明監管轉向,從事後應對的審核(內容發布後移除)轉向主動預防(確保工具從一開始就無法創建該內容)。
雖然 ICO 專注於 資料隱私(Data Privacy),英國通訊監管機構 Ofcom 也在其權責範圍內進行並行調查。Ofcom 的調查最初於 1 月啟動,側重於 X 平台更廣泛的安全協議。儘管 Ofcom 表示已不再直接調查 xAI,但它仍繼續調查 X 是否違反了關於資訊請求的條件。
Ofcom 的角色至關重要,因為它負責執行《線上安全法》(Online Safety Act),這是一部旨在讓英國成為最安全上網地點的法律。監管機構要求平台以準確、完整且及時的方式回應具有法律約束力的資訊請求。ICO 與 Ofcom 之間的協同作用展示了多管齊下的監管方法:
這種雙重審查使 X 處於複雜的合規環境中,必須滿足多個法定機構截然不同但又重疊的要求。
下表概述了參與調查 X 和 Grok 的英國監管機構各自的角色和當前重點。
| **監管機構 | 主要關注點 | 調查範圍** |
|---|---|---|
| 資訊專員公署 (ICO) | 資料保護與隱私權 | 調查是否設有保障措施,以防止個人資料被用於生成非自願親密影像。 |
| 英國通訊管理局 (Ofcom) | 線上安全與廣播標準 | 調查 X 對資訊請求的合規情況及更廣泛的安全職責;監控平台的反應能力。 |
| 英國政府 | 立法框架 | 推動將使用 AI 創建和請求非自願性親密影像的行為入罪化。 |
面對日益增長的壓力, X 已公開聲明其對安全和合規的承諾。該公司已推出多項旨在遏制濫用 Grok 的措施。根據平台發布的聲明,全球範圍內已實施相關措施,以防止 AI 允許編輯穿著清涼衣物(如比基尼)的真實人物影像。
此外,X 強調對兒童性剝削和非自願裸體採取「零容忍」政策。為了加強問責制,該公司強調,透過 Grok 帳號進行影像創建和編輯的能力僅限於付費訂閱者。這種「以付費牆作為保護」策略背後的邏輯是,將使用情況與支付方式連結,可以建立身分追蹤,使追究不良行為者的法律責任變得更容易。
然而,批評者和監管機構可能會認為,財務障礙作為主要安全機制是不夠的。ICO 調查的核心可能會測試這些追溯性的政策執行和訪問限制,是否等同於法律要求的「預設隱私」(Privacy by Design)。X 的內容審核演算法的有效性,以及 Grok 基礎安全訓練(例如來自人類回饋的強化學習,Reinforcement Learning from Human Feedback)的穩健性,都將受到嚴格審查。
這項調查可作為全球 AI 產業的風向標。隨著平台將更強大的生成式 AI 工具直接整合到社群媒體動態中,內容託管者與內容創作者之間的界限變得模糊。英國的監管行動正在為各國如何對新興 AI 技術執行現有資料保護法設定先例。
對於開發 AI 的公司來說,訊息很明確:創新不能領先於安全合規。 「快速行動,打破常規」(Move fast and break things)的時代正與一個優先考慮使用者權利的成熟監管環境發生碰撞。ICO 和 Ofcom 調查的結果可能會決定新的產業標準,要求:
隨著資訊專員公署持續與國際同行合作,關於 Grok 的調查結果可能會影響歐盟的政策,並可能影響美國的監管方式。目前,大眾的目光仍牢牢鎖定在 X 身上,看其如何證明其技術雄心不會以犧牲使用者的隱私和安全為代價。