
一段偽造的影片,主角為一位英國知名城市的市長,已在政治圈掀起風暴,暴露出國家在人工智慧方面法律框架的重大弱點。該事件使用先進的生成式 AI(Generative AI)來模擬該官員的語音與肢體語氣,並因此引發廣泛且緊急的呼籲,要求對在政治活動中使用合成媒體(synthetic media)制定更嚴格的法律。
爭議焦點是一段迅速在社群平台(包括 X(原 Twitter)與 TikTok)上流傳的深偽影片。片段內容顯示市長發表針對敏感社區事件的煽動性言論,目的是製造分裂並激化公眾秩序。雖然該影片最終被揭穿為偽造,但其病毒式擴散的速度以及執法部門在初期無法介入的情況已使專家與立法者感到震驚。
該事件涉及一種複雜的操縱手法,稱為「深偽(deepfake)」,即使用 AI 演算法合成人的外貌與語音。就此案而言,行兇者據稱利用市長真實語音的短片段來訓練模型,然後讓模型說出市長從未說過的話。
雖然在技術上這更像是將偽造的音頻疊加在靜態或循環圖像上——這是在低成本但高影響力的錯誤資訊中常見的手法——但仍有成千上萬的人將其當作真實的影片錄影來觀看與分享。該內容被策略性地安排在政治緊張高漲的時期發布,以最大化其對現實世界造成傷害的可能性。
假媒體的主要特徵:
| Feature | Description | Impact Factor |
|---|---|---|
| Audio Fidelity | 高品質的語音克隆(voice cloning),捕捉語調與節奏。 | 高: 熟悉市長聲音的聽眾容易被欺騙。 |
| Visual Element | 靜態圖片或低動態循環影像配合音頻。 | 中等: 雖然畫面靜態,但此格式仍能在 TikTok 上以「影片」形式擴散。 |
| Content Strategy | 關於警方管制與抗議的煽動性言論。 | 關鍵: 旨在引發立即的憤怒與社會動盪。 |
| Distribution | 透過匿名帳號與極右網絡快速散播。 | 病毒式: 由於呈現方式近似新聞,該片段繞過了初期的審核過濾。 |
此事件最令人不安之處之一是隨之而來的法律癱瘓。當市長辦公室向大都會警察(Metropolitan Police)回報該片段時,警方的回應凸顯出現行英國法律中的一大缺口。依據現行法規,製作此類影片並不會自動構成刑事罪行,除非它符合針對騷擾或誹謗的特定且狹窄的標準,而在病毒式傳播的緊張氛圍中,這類指控往往難以證明。
倫敦市長 Sadiq Khan(曾為類似高曝光攻擊的目標)公開表示,法律「不適用於現況」。他指出,警方無法追訴深偽影片的製作者,因為以此格式製造政治性錯誤資訊的具體行為,落在現行刑事法規的適用範圍之外。
該事件促使對選舉法進行「數位升級(Digital Upgrading)」的呼聲加速。支持者主張,隨著大選在即,英國無法再讓其民主程序曝露於不受限的 AI 操縱之下。
對此事件的反應迅速,並逐漸形成了需要立即立法行動的共識。
現行法規與擬議變動比較:
| Regulatory Area | Current Status (UK) | Proposed Changes |
|---|---|---|
| Deepfake Creation | 大致合法;僅在未經同意的性內容情況下為違法。 | 刑事罪行: 製作旨在欺騙選民的政治人物深偽將被視為非法。 |
| Platform Liability | 「通知與下架」模式;反應緩慢。 | 主動義務: 平台必須立即檢測並標示 AI 政治內容。 |
| Labeling | 部分 AI 公司自願加入浮水印。 | 強制浮水印: 所有 AI 生成的政治內容必須有明顯揭露標示。 |
| Election Period | 適用標準的誹謗/中傷法。 | 「冷卻」期間: 在投票前 48 小時加強對未經驗證媒體的禁令。 |
從 Creati.ai 的立場來看,此事件提醒我們生成式 AI(Generative AI)具有雙面性。雖然該技術帶來巨大的創作潛力,但其民主化也代表只要有網路連線的任何人——包括惡意者——都能取得高級工具。
挑戰在於如何在創新與安全之間取得平衡。我們認為解方不是禁止該技術(既不可能也有反效果),而是建立一套強健的「來源與真實性(provenance and authenticity)」基礎設施。
1. 浮水印(C2PA)的角色
業界必須加速採用像 C2PA(Coalition for Content Provenance and Authenticity)這類標準。若市長的官方影片採用加密簽章,社群平台就能自動將沒有簽章的內容標記為「未驗證」或「可能為合成」。
2. AI 偵測的現實
雖然存在偵測工具,但它們目前正與生成工具陷入軍備競賽。單靠偵測軟體來「抓」假作是場必輸的戰鬥。重點必須從追捕「假」內容,轉向驗證「真實」內容。
3. 「說謊者的紅利(Liar's Dividend)」
也許最隱蔽的風險是所謂的「說謊者的紅利(Liar's Dividend)」——政治人物可能藉稱醜聞為 AI 偽造來否認真正的醜聞。監管必須審慎設計,以避免這種利用懷疑主義的犬儒式剝削。
隨著英國接近下一輪選舉週期,這段「偽市長」影片很可能會被視為分水嶺事件。它已將關於 AI 安全的討論,從科技圈的理論辯論推向國家級報紙的頭版。
政府現在面臨加速立法的壓力,以具體回應 AI 與民主誠信交叉的問題。這將導致對現有法律的倉促補丁,抑或是一部全面的 AI 權利法案,尚待觀察。不過可以確定的是,「看見就相信」的時代已正式結束,而「驗證何者為真」的時代已經開始。
爭議時間線:
| Phase | Event Detail | Outcome |
|---|---|---|
| Origin | 用市長公開演說訓練的 AI 模型。 | 創造出極為逼真的語音克隆。 |
| Dissemination | 由匿名帳號在 TikTok/X 發佈。 | 首小時內達到 10 萬次以上觀看。 |
| Escalation | 被邊緣政治團體分享以煽動抗議。 | 警方接獲通報;擔憂群眾騷亂。 |
| Response | 市長公開譴責影片;警方調查。 | 警方稱「無刑事罪行」;案件結案。 |
| Fallout | 國會議員與專家要求緊急法律改革。 | 國會中關於 AI 監管的推動再度升溫。 |
對於 AI 社群而言,這是個行動召喚,要求在下一代生成工具中優先納入安全功能與來源標準。我們數位公共廣場的誠信,取決於此。