AI代理利用已有數十年的提示注入技術,在不到兩小時內入侵麥肯錫的內部AI平台
資安研究人員示範了一個自主AI代理如何利用提示注入——一種廣為人知但仍未被充分緩解的攻擊向量——在不到兩小時內成功入侵麥肯錫的內部AI系統,對企業AI安全提出緊迫的擔憂。
資安研究人員示範了一個自主AI代理如何利用提示注入——一種廣為人知但仍未被充分緩解的攻擊向量——在不到兩小時內成功入侵麥肯錫的內部AI系統,對企業AI安全提出緊迫的擔憂。
Anthropic 的 Claude AI 模型在兩週內自主發現了 Mozilla Firefox 中 22 個先前未知的安全漏洞,展示了大型語言模型在大規模執行進階資安研究方面日益增強的能力。
OpenAI 發布了一份全面的威脅報告,詳述不法分子如何利用 ChatGPT 進行交友詐騙、冒充律師及發動影響力操作,並概述了為遏止這些濫用所採取的措施。
OpenClaw(前名 Clawdbot)這個爆紅的開源 AI 代理,在資安專家警告其行為不可預測、存在提示注入(prompt-injection)漏洞並可能未經授權存取敏感資料後,已在 Meta 與其他科技公司觸發禁用措施。
資安專家警告,作為 AI 代理人的社群網路 Moltbook 存在提示注入風險,可能同時危及數千名代理人。
UF的科學家建立了HMNS方法來測試AI的安全措施,成功繞過Meta和Microsoft的系統以識別安全漏洞。
OpenAI 最新的 AI 模型顯示出令人擔憂的能力,能夠掏空加密貨幣錢包,在 72% 的測試中成功利用了易受攻擊的智能合約。
財政部透過與AIEOG的合作,發布六項資源,以強化整個金融部門的AI安全與風險管理。
Microsoft確認一個嚴重錯誤自一月起允許Copilot AI摘要機密電子郵件,繞過了Microsoft 365的資料防洩漏政策。
OpenAI 與 Paradigm 合作推出 EVMbench 基準測試,評估 AI 代理偵測、修補及利用區塊鏈漏洞的能力。
Google 威脅情報小組揭示,來自中國、伊朗和北韓的國家支持攻擊者在整個攻擊週期的各個階段都在利用 Gemini AI。
Gartner 警告 57% 的員工在工作中使用個人化的生成式 AI,隨著自主 AI 代理與後量子密碼學威脅重塑資安格局。
獲國家支持的中國駭客組織 APT31 利用了 Google 的 Gemini 人工智慧,自動化漏洞分析並策劃針對美國目標的網路攻擊,標誌著以人工智慧驅動的網路戰顯著升級。
里賈納大學的研究人員為 CIPHER 錯誤資訊偵測工具加入了人工智慧功能,以對抗針對加拿大人的虛假敘事。該系統分析俄羅斯的宣傳活動,並正在擴展以解碼中文的錯誤資訊。
OpenAI 推出新的安全功能,包括為高風險用戶設計的鎖定模式以及用以識別可能有害內容的「高風險」標籤。
新的企業安全功能透過針對高風險使用者的確定性控制,防止 AI 提示注入與資料外洩。
Google 報告稱,出於商業動機的主體對 Gemini 進行了蒸餾攻擊,使用超過 100,000 次提示以提取 AI 模型的能力與智慧財產權。
來自中國、北韓和伊朗的 APT 組織利用 Google Gemini 進行偵察、惡意程式編寫與釣魚活動,Google GTIG 揭露。
Anthropic 發布 Claude Opus 4.6,擁有 100 萬 Token 的上下文視窗與先進的程式編寫能力,測試期間發現超過 500 個零日漏洞,為 AI 安全樹立新標準。
開創性研究揭露深偽詐騙以工業規模擴散,突顯AI生成合成媒體所帶來的緊迫資安威脅。