
一項於 2026 年 1 月發布的全面調查揭露了藏匿在通訊平台 Telegram 加密走廊中的可怕現實。數百萬使用者正在積極利用非法的 AI 驅動機器人生成非自願親密影像(non-consensual intimate imagery,NCII),廣為人知為「深偽裸照(deepfake nudes)」。此一發現標誌著對於 生成式AI(Generative AI) 安全性討論的一個關鍵轉捩點,凸顯出平台審核的重大失敗以及日益嚴重的數位性暴力疫情。
在 Creati.ai,我們持續追蹤影像合成技術的演變。雖然合法工具已經改變了創意產業,但開源擴散模型的普及化已被濫用。最新報告顯示,製作具說服力的偽造色情內容的門檻已徹底崩潰,任何有智慧型手機的人都可以匿名且幾乎免費地有效地侵害他人。
根據近期調查分析的數據,這類活動的規模已非邊緣次文化,而是主流現象。Telegram 以其寬鬆的審核政策及強調使用者隱私而聞名,已成為數千個「nudify」機器人的寄主。
這些機器人運作在一個簡單且可怕的前提下:使用者上傳目標的穿衣照——常取自 Instagram 或 Facebook 等社群媒體個人檔案——AI 便處理圖像以去除衣物,呈現出擬真裸照的近似影像。整個過程僅需數秒。
調查的主要發現包括:
驅動這些機器人的底層技術常基於經過修改的開源 Stable Diffusion 模型或類似的生成架構。這些模型在大量裸照資料集上進行微調,使其能以高度精確度理解人體解剖與皮膚紋理。
不同於像 Midjourney 或 DALL-E 這類已實施嚴格安全過濾與「紅隊測試」機制以防止產生成人內容(NSFW,Not Safe For Work)或真人人像的商業平台,這些 Telegram 機器人運作毫無防護。
這種精簡的使用者體驗免除了技術專長的需求。2023 年,製作一張深偽需要強大 GPU 與程式知識;到 2026 年,僅需一個 Telegram 帳號。
為了理解監管缺口的嚴重性,有必要比較合法 AI 實體的運作方式與在 Telegram 上發現的非法生態系。
AI 安全協議比較
| Feature | Regulated Commercial AI | Illicit Telegram Bots |
|---|---|---|
| 內容過濾 | 嚴格禁止 NSFW 與 NCII 內容 | 沒有過濾;明確設計用於生成 NCII |
| 使用者驗證 | 帳號綁定、付款追蹤,通常有 KYB/KYC | 完全匿名;允許一次性帳號 |
| 資料隱私 | 使用者資料受保護;濫用會導致封鎖 | 資料常被蒐集;影像可能被公開再分享 |
| 法律遵循 | 遵守歐盟 AI Act 與美國行政命令 | 在法律灰色地帶運作;伺服器常設於境外 |
| 收費模式 | 訂閱制用於合法創意工具 | 免費增值模式,濫用具有掠奪性 |
把「虛擬」濫用視為虛無是不正確的;其心理影響是劇烈且具體的。深偽騷擾的受害者報告的症狀與創傷後壓力症候群(PTSD)、焦慮與憂鬱相符。隱私的侵犯極為深遠——知道自己的肖像在未經同意下被操弄與散布,會造成持續的警覺與恐懼狀態。
此外,Telegram 頻道如同「九頭蛇」般的性質使得求償變得複雜。一個機器人被檢舉並封鎖後,數小時內會以不同名稱出現兩個。調查顯示,女性是壓倒性的主要目標,在分析資料集中佔超過 95% 的受害者。這強化了對於不受控 AI 發展會加劇性別暴力的批評。
「科技的發展已超越法律,而像 Telegram 這樣的平台正為這類濫用提供溫床讓其滋長,」一位在最近報導中被引用的 資安(cybersecurity) 分析師如是指出。
危機的核心在於先進技術與不足的平台治理交會處。資安專家(Cybersecurity experts)主張,Telegram 拒絕實施用戶端掃描或對已知濫用工具進行強健的雜湊比對,使其具有共犯性。
雖然歐盟的 AI Act 與美國各州法已嘗試將製作非自願深偽列為犯罪,但執法仍是主要障礙。Telegram 提供的匿名性意味著即便該行為為非法,對於資源有限的在地執法機構來說,找到加害者幾乎不可能。
監管面臨的挑戰:
作為一個以 AI 為核心的刊物,Creati.ai 主張採取多面向的方法來解決此一危機。我們無法禁止技術,但必須強化圍繞其的基礎設施。
技術性解決方案:
數百萬人利用 Telegram 製作深偽裸照的揭露,對數位時代來說是一記警鐘。它代表了生成式 AI(Generative AI)革命的黑暗面——一面需要科技領袖、立法者與平台營運者立即採取強力干預的面向。
創新絕不應以人類尊嚴為代價。當我們繼續倡導人工智慧的能耐時,我們也必須同樣強烈譴責其被武器化的行為。「快速行動並打破一切」的時代已導致真實人生被摧毀,產業現在必須迅速行動以修復這一切。