
人工智慧安全的格局正在劇烈轉變。根據來自 AI Incident Database (AIID) 的新分析,與 AI 有關的已申報傷害事件自 2022 年到 2024 年的年增率已達 50%。更令人擔憂的是,2025 年前十個月的資料顯示,今年迄今的數量已超越 2024 年的總和,這顯示出一個正在加速的趨勢,而非暫時性的高峰。
對於產業觀察者與 Creati.ai 的利益相關者而言,這些資料確認了技術風險性質的一個關鍵轉變。過去 AI 事件多由自動駕駛錯誤或靜態系統中的演算法偏差主導,但隨著生成式AI(Generative AI)的普及,一個以深偽、惡意使用與合成媒體詐騙為特徵的新時代已然來臨。
近期資料中最顯著的發現,是 AI 造成傷害的「方式」已出現根本性改變。2018 到 2022 年間,已申報事件的主要成因通常是系統限制——例如自駕車未能偵測到單車騎士,或臉部辨識系統出現種族偏差。然而,強大生成模型的問世已經翻轉了這一動態。
自 2023 年起,與 深偽影片 直接相關的事件已超過與自動車、臉部辨識以及內容審核演算法合計的報告數量。這標誌著從「AI 意外」(系統未達預期表現)轉向「惡意使用」(系統按意圖運作,但被用於有害目的)。
分析中識別出的主要趨勢包括:
要了解此問題的規模,必須檢視 AI Incident Database 與 MIT FutureTech 研究人員提供的原始數字。趨勢顯示,隨著大型語言模型(Large Language Models, LLMs)被主流化,申報的傷害事件數呈指數型上升。
年度申報的 AI 事件(2020–2024)
| Year | Total Reported Incidents | Primary Driver of Growth |
|---|---|---|
| 2020 | 43 | Algorithmic Bias / Vision Systems |
| 2021 | 89 | Content Moderation / Surveillance |
| 2022 | 104 | Early Generative Art / Chatbots |
| 2023 | 166 | Generative AI Boom (ChatGPT public release) |
| 2024 | 276 | Deepfakes / Synthetic Voice Scams |
資料來源:AI Incident Database / MIT AI Incident Tracker
Daniel Atherton,AI Incident Database 的一位編輯,強調這些數字可能只是冰山一角。「AI 已經造成現實世界的傷害,」Atherton 指出。「如果不追蹤失敗,我們就無法修復它們。」他警告說,雖然群眾外包的資料有其侷限,但它目前仍是窺見問題規模的少數可行窗口之一,因為企業報告仍然分散。
對監管機構與安全研究人員而言,最複雜的挑戰之一是歸因。由於大型科技公司因其高能見度常常被列入報告,然而相當一部分的 AI 傷害來自於開發者身分不明的工具。
自 2023 年起,超過 三分之一的所有申報事件涉及標示為「Unknown」的 AI 開發者。這種情況常見於社群媒體詐騙情境——使用者在 Facebook 或 Instagram 等平台上遇到深偽廣告或詐欺投資方案,但無法判定用於製作合成媒體的具體工具。
Simon Mylius,MIT FutureTech 的一位聯合研究員,指出這為資料帶來大量「噪音」。為了對抗這種情況,他的團隊部署了 LLMs 來解析新聞報導並更精確地分類事件。更深入的分析顯示,雖然像「AI 生成的歧視」等類別在 2025 年出現相對下降,但 「人機互動(Computer-Human Interaction)」——例如使用者對聊天機器人(chatbot)產生不健康依附或因產生幻覺的模型而出現「精神病症狀(psychosis)」的案例——正在上升。
當前局勢的波動性,在最近一起涉及 xAI 的 Grok 的事件中表露無遺。在一次軟體更新後,據部分研究人員估計,該模型被用來生成非自願的真人性化圖像,速率估計達到 6,700 張圖像/每小時。
這起事件引發了立即的監管反彈,包括馬來西亞與印尼政府的封鎖以及英國媒體監管機構的調查。它成為一個鮮明的例證:若在部署前未嚴格測試安全防護措施,「技術進步」可能立刻轉化為「規模化傷害」。xAI 隨後將圖像生成功能限制於付費訂閱用戶,並對真人影像實施更嚴格的封鎖,但此事件凸顯了現行安全協定的反應性特質。
申報數激增,使得近期的立法行動更顯迫切,例如歐盟 AI 法案(EU AI Act)與加州的邊境 AI 透明法案(Transparency in Frontier AI Act,SB 53)。這些法律要求開發者通報安全關鍵事件,理論上可減少對媒體報導作為資料來源的依賴。
同時,產業也在嘗試透過技術標準進行自我規範。名為 Content Credentials 的倡議——一套用於為內容加水印並嵌入元資料以驗證內容真實性的系統——已獲得下列重量級廠商的支持:
值得注意的是,受歡迎的圖像生成器 Midjourney 尚未完全採用這一新興標準,造成生態系中的一個缺口。
對於 Creati.ai 而言,申報事件數暴增 50% 是一個警鐘。這顯示隨著 AI 模型變得更強大,潛在傷害的「攻擊面」也在擴大。Anthropic 最近揭露曾攔截一場試圖利用其 Claude Code 助手發動的大規模資安攻擊,該公司宣稱業界已在 AI 與資安交匯處達到一個「轉折點」。
AI Incident Database 的資料證明,AI 傷害不再是理論上的或罕見的事件。它正成為數位經濟中一個可衡量且持續成長的組成部分。正如 Simon Mylius 所言,我們必須小心,不讓這些事件成為「背景雜訊」。無論是突如其來的深偽浪潮危機,或是透過錯誤資訊逐步侵蝕信任,追蹤與分析這些失敗,才是邁向更安全 AI 未來的唯一途徑。