微軟承諾向日本投資100億美元,用於AI基礎設施與網路安全
微軟宣布將在四年內於日本投資100億美元,以擴展AI基礎設施、強化網路安全,並於2029年前培訓100萬名工程師。
微軟宣布將在四年內於日本投資100億美元,以擴展AI基礎設施、強化網路安全,並於2029年前培訓100萬名工程師。
安全研究人員發現,Anthropic 的 Claude Code 智能代理在承受足夠長的子命令鏈時,會忽略其安全拒絕規則。
包括 CrowdStrike 和 Palo Alto Networks 在內的主要網路安全公司,已推出新的代理式 AI 功能,以自動化並強化安全營運。
資料外洩顯示 Anthropic 正在測試代號為「Mythos」的強大新 AI 模型,公司也確認該模型在能力上是一大躍進。資安研究人員警告,該模型的進階推理能力可能帶來新的資安風險。
Accenture 推出了由 Anthropic 的 Claude 提供動力的 Cyber.AI,使組織能從人類速度轉向持續、由 AI 驅動的資安運作;Accenture 自行部署的案例將掃描周轉時間從數天縮短至不到一小時。
Oasis Security 的研究人員發現 Anthropic 的 Claude 中有三個串聯漏洞 — 包括提示注入(prompt injection)、Files API 的外洩路徑及開放重導向 — 可透過 Google 搜尋廣告進行無聲資料竊取。
資安研究人員示範了一個自主AI代理如何利用提示注入——一種廣為人知但仍未被充分緩解的攻擊向量——在不到兩小時內成功入侵麥肯錫的內部AI系統,對企業AI安全提出緊迫的擔憂。
Anthropic 的 Claude AI 模型在兩週內自主發現了 Mozilla Firefox 中 22 個先前未知的安全漏洞,展示了大型語言模型在大規模執行進階資安研究方面日益增強的能力。
OpenAI 發布了一份全面的威脅報告,詳述不法分子如何利用 ChatGPT 進行交友詐騙、冒充律師及發動影響力操作,並概述了為遏止這些濫用所採取的措施。
OpenClaw(前名 Clawdbot)這個爆紅的開源 AI 代理,在資安專家警告其行為不可預測、存在提示注入(prompt-injection)漏洞並可能未經授權存取敏感資料後,已在 Meta 與其他科技公司觸發禁用措施。
資安專家警告,作為 AI 代理人的社群網路 Moltbook 存在提示注入風險,可能同時危及數千名代理人。
UF的科學家建立了HMNS方法來測試AI的安全措施,成功繞過Meta和Microsoft的系統以識別安全漏洞。
OpenAI 最新的 AI 模型顯示出令人擔憂的能力,能夠掏空加密貨幣錢包,在 72% 的測試中成功利用了易受攻擊的智能合約。
財政部透過與AIEOG的合作,發布六項資源,以強化整個金融部門的AI安全與風險管理。
Microsoft確認一個嚴重錯誤自一月起允許Copilot AI摘要機密電子郵件,繞過了Microsoft 365的資料防洩漏政策。
OpenAI 與 Paradigm 合作推出 EVMbench 基準測試,評估 AI 代理偵測、修補及利用區塊鏈漏洞的能力。
Google 威脅情報小組揭示,來自中國、伊朗和北韓的國家支持攻擊者在整個攻擊週期的各個階段都在利用 Gemini AI。
Gartner 警告 57% 的員工在工作中使用個人化的生成式 AI,隨著自主 AI 代理與後量子密碼學威脅重塑資安格局。
獲國家支持的中國駭客組織 APT31 利用了 Google 的 Gemini 人工智慧,自動化漏洞分析並策劃針對美國目標的網路攻擊,標誌著以人工智慧驅動的網路戰顯著升級。
里賈納大學的研究人員為 CIPHER 錯誤資訊偵測工具加入了人工智慧功能,以對抗針對加拿大人的虛假敘事。該系統分析俄羅斯的宣傳活動,並正在擴展以解碼中文的錯誤資訊。