AI代理利用已有數十年的提示注入技術,在不到兩小時內入侵麥肯錫的內部AI平台
資安研究人員示範了一個自主AI代理如何利用提示注入——一種廣為人知但仍未被充分緩解的攻擊向量——在不到兩小時內成功入侵麥肯錫的內部AI系統,對企業AI安全提出緊迫的擔憂。
資安研究人員示範了一個自主AI代理如何利用提示注入——一種廣為人知但仍未被充分緩解的攻擊向量——在不到兩小時內成功入侵麥肯錫的內部AI系統,對企業AI安全提出緊迫的擔憂。
OpenAI 已宣布收購 Promptfoo,一家開源的 AI 安全與紅隊測試(red-teaming)新創公司,藉此提升其 AI 代理人對抗對抗性攻擊與提示注入(prompt injection)漏洞的安全性與可靠性。
Anthropic 公開指控中國的 AI 實驗室透過蒸餾攻擊系統性地從其 Claude 模型中提取知識,並在美國討論 AI 晶片出口管制之際,發佈了新的偵測與防護研究。
Microsoft Copilot 在八個月內兩度繞過 DLP(資料外洩防護)政策與敏感性標籤 — 包括影響英國 NHS 的為期四週的暴露 — 揭示了企業 AI 安全堆疊中的系統性盲點。
Anthropic 發布了 Claude Code Security,一款新的 AI 驅動的應用程式安全工具,使用類似人類的推理掃描程式碼庫以尋找複雜漏洞,該消息使資安類股暴跌。
資安專家警告,作為 AI 代理人的社群網路 Moltbook 存在提示注入風險,可能同時危及數千名代理人。
UF的科學家建立了HMNS方法來測試AI的安全措施,成功繞過Meta和Microsoft的系統以識別安全漏洞。
OpenAI 最新的 AI 模型顯示出令人擔憂的能力,能夠掏空加密貨幣錢包,在 72% 的測試中成功利用了易受攻擊的智能合約。
財政部透過與AIEOG的合作,發布六項資源,以強化整個金融部門的AI安全與風險管理。
Microsoft確認一個嚴重錯誤自一月起允許Copilot AI摘要機密電子郵件,繞過了Microsoft 365的資料防洩漏政策。
Gartner 警告 57% 的員工在工作中使用個人化的生成式 AI,隨著自主 AI 代理與後量子密碼學威脅重塑資安格局。
獲國家支持的中國駭客組織 APT31 利用了 Google 的 Gemini 人工智慧,自動化漏洞分析並策劃針對美國目標的網路攻擊,標誌著以人工智慧驅動的網路戰顯著升級。
里賈納大學的研究人員為 CIPHER 錯誤資訊偵測工具加入了人工智慧功能,以對抗針對加拿大人的虛假敘事。該系統分析俄羅斯的宣傳活動,並正在擴展以解碼中文的錯誤資訊。
Google 報告稱,出於商業動機的主體對 Gemini 進行了蒸餾攻擊,使用超過 100,000 次提示以提取 AI 模型的能力與智慧財產權。
來自中國、北韓和伊朗的 APT 組織利用 Google Gemini 進行偵察、惡意程式編寫與釣魚活動,Google GTIG 揭露。
開創性研究揭露深偽詐騙以工業規模擴散,突顯AI生成合成媒體所帶來的緊迫資安威脅。
未正確設定的 Firebase 後端使來自 2,500 萬用戶的 3 億則 AI 聊天訊息曝光,包含完整對話記錄與設定。
微軟研究人員揭示了一種可偵測被毒害 AI 模型的方法,在 47 個睡眠特務模型上達到 88% 的準確率且無任何誤報。
資安研究人員警告,AI代理正在快速擴大攻擊面,95%的 Model Context Protocol(MCP)部署在員工端點上運行,且無安全可視性。GreyNoise 在三個月內記錄了超過 91,000 次針對大型語言模型(LLM)基礎設施的攻擊會話,而像伊朗與中國等國家正在利用 AI 增強其網路戰能力。
聯邦機構採用生成式AI瀏覽器與自主的紫隊演練,以應對新興的AI安全威脅與不斷演變的法規。