
2026 年 2 月 12 日 – Google 威脅情報小組(Threat Intelligence Group,GTIG)與 Google DeepMind 發布了一份綜合報告,詳細闡述了國家級對手如何系統地將 Google Gemini 整合到其網路攻擊生命週期中,這項重大發現突顯了生成式 AI(Generative AI)的雙面刃特性。
這份在慕尼黑安全會議(Munich Security Conference)前夕發布的報告強調了一個令人不安的趨勢:來自中國、伊朗和北韓的進階持續性威脅(Advanced Persistent Threat,APT)組織已不僅僅是在進行實驗。這些行動者現在正積極利用生成式 AI 來加速偵察、優化社交工程(Social engineering)活動,甚至在行動期間動態生成惡意代碼。
在過去一年中,網路安全社群一直警告大型語言模型(LLMs)可能會降低網路犯罪的門檻。然而,Google 的最新調查結果證實,受國家資助的高階組織正利用這些工具來增強效率和規避能力。
根據報告,這些組織對 Gemini 的使用並非單一模式。不同的行動者根據其特定的戰略目標採用了該技術,範圍從深度的開源情報(Open-source intelligence,OSINT)蒐集到網路釣魚誘餌的即時翻譯。
GTIG 首席分析師 John Hultquist 指出,雖然北韓和伊朗組織是將 AI 用於社交工程的早期採用者,但中國行動者現在正開發更複雜的「代理化(Agentic)」案例,以簡化漏洞研究和代碼故障排除。
報告深入探討了特定 APT 組織 如何利用 Gemini。下表總結了主要的行動者及其觀察到的方法論:
國家級 AI 濫用摘要
| 威脅組織 | 來源 | 主要目標 | Gemini 的主要濫用方式 |
|---|---|---|---|
| APT42 (Charming Kitten) | 伊朗 | 教育、政府、非政府組織 | 翻譯網路釣魚誘餌、優化社交工程人格設定,以及撰寫具說服力的電子郵件。 |
| UNC2970 | 北韓 | 國防與航太 | 綜合 OSINT 以剖析高價值目標;冒充企業招聘人員。 |
| TEMP.Hex (Mustang Panda) | 中國 | 政府與非政府組織(巴基斯坦/歐洲) | 編譯關於分離主義組織和特定個人的結構化數據。 |
| APT31 (Zirconium) | 中國 | 美國工業/政治領域 | 使用「專家級網路安全人格」來自動化漏洞分析和測試計劃。 |
APT42 是一個歷史上與伊朗伊斯蘭革命衛隊(IRGC)相關的組織,已將 Gemini 深度整合到其社交工程行動中。APT42 以針對研究人員、記者和活動人士而聞名,該組織使用該模型來翻譯內容並修飾網路釣魚郵件的語法,使其與合法的往來信件難以區分。
透過向 Gemini 提供目標對象的傳記,該組織能生成量身定制的藉口——旨在建立即時信任的情境。這種能力使他們能夠彌補語言障礙和文化差異,而這些因素以前曾是潛在受害者的警示訊號。
對於北韓組織 UNC2970 而言,AI 是間諜活動的戰力倍增器。該組織以國防和航太領域為目標,經常冒充合法的招聘人員來植入惡意軟體。
Google 的分析顯示,UNC2970 利用 Gemini 從專業社交網站(如 LinkedIn)抓取並綜合大量數據。AI 協助他們繪製組織層級圖、識別關鍵技術人員,並撰寫用於魚叉式網路釣魚活動的超高度寫實職位描述。
包括 TEMP.Hex 和 APT31 在內的中國國家資助行動者,展示了該技術在技術層面上最尖端的一些應用。觀察到這些組織使用 Gemini 來排除其惡意代碼的故障,並研究大眾已知的漏洞。
在一個令人警覺的案例中,一個中國組織利用 Gemini 模擬了「專家級網路安全人格」。這些 AI 代理(Agents)的任務是自動分析軟體漏洞,並生成繞過美國目標安全控制的測試計劃。這表明其正轉向自動化進攻行動,由 AI 代理協助入侵的策劃階段。
報告中技術性最強的發現或許是發現了 Honestcue,這是一種在 2025 年 9 月識別出的惡意軟體變種。與攜帶惡意負載的傳統惡意軟體不同,Honestcue 像是一個依賴雲端的空殼。
Honestcue 利用 Google Gemini API 在記憶體中動態生成並執行惡意 C# 代碼。透過將惡意邏輯卸載給 AI 回應,攻擊者實現了兩個目標:
這種「就地取材(Living off the land)」的方法——現在的「地」變成了雲端 AI 服務——代表了惡意軟體開發的重大演進。
除了國家級間諜活動外,報告還揭示了日益增長的「越獄即服務(Jailbreak-as-a-Service)」地下經濟。網路犯罪分子正在銷售宣稱是定制、無審查的 AI 模型工具,但這些工具通常只是封裝了 Gemini 或 OpenAI 等商業 API。
其中一個名為 Xanthorox 的工具,標榜自己是用於生成勒索軟體和惡意軟體的私有、自託管 AI。然而,Google 的調查顯示,Xanthorox 只是透過已越獄的合法模型實例來路由提示(Prompts),剝離安全過濾器以提供惡意內容。
此外,受經濟利益驅動的組織正越來越多地進行 模型提取攻擊(Model Extraction Attacks)(MEAs)。這些「蒸餾攻擊」涉及系統性地探測像 Gemini 這樣成熟的模型以提取其訓練模式,從而有效地竊取知識產權來訓練更便宜、更小型的複製模型。雖然這不會危及用戶數據,但對 AI 開發者的競爭優勢構成了嚴重威脅。
針對這些發現,Google 已採取積極行動,停用了與報告中提到的 APT 組織相關的所有已識別帳戶和資產。該公司強調,雖然對手正將 Gemini 用於內容生成和代碼協助,但沒有證據顯示 Gemini 模型本身的安全性已遭破壞。
報告指出:「對於受政府支持的威脅行動者來說,LLMs 已成為技術研究、目標鎖定以及快速生成細膩網路釣魚誘餌的必備工具。」
Creati.ai 指出,這一發展標誌著威脅格局的永久性轉變。隨著 AI 模型變得更加多模態(Multimodal)且具備代理特性,漏洞被發現與被利用之間的時間差將持續縮短。將 AI 整合到進攻性網路行動中不再是理論上的風險,而是新的交戰標準。
對於企業安全團隊而言,這需要轉向能夠識別 AI 生成異常的行為偵測系統,而不是僅依賴靜態的入侵指標(Indicators of compromise)。隨著 AI 輔助攻擊者與 AI 驅動防禦者之間的軍備競賽加速,AI 供應鏈本身的完整性可能會成為下一個主要戰場。