AnthropicのClaude CodeのソースコードがGitHubで流出、数千のリポジトリが削除される
Anthropicは誤ってClaude Codeの51万2,000行に及ぶソースコードを公開してしまい、同社は物議を醸すDMCA一斉削除でGitHub上の数千のリポジトリを削除した。
Anthropicは誤ってClaude Codeの51万2,000行に及ぶソースコードを公開してしまい、同社は物議を醸すDMCA一斉削除でGitHub上の数千のリポジトリを削除した。
人気のAIゲートウェイ系スタートアップLiteLLMは、認証情報を窃取するマルウェアの発生と、Delveがコンプライアンス監査データを捏造したとする内部告発の疑いを受け、コンプライアンス業者Delveとの関係を公に断ち切った。
RSAカンファレンス2026で、CrowdStrike、Cisco、Palo Alto Networks、Microsoft、Cato CTRLはそれぞれAIエージェントの識別フレームワークを発表したが、Fortune 50企業での実際の事例は、エージェント型AIのセキュリティにおける未解決の3つのギャップを明らかにした。
Oasis Securityの研究者はAnthropicのClaudeにおいて3つの連鎖する脆弱性を発見しました — プロンプトインジェクション、Files APIによるデータ抜き取り経路、オープンリダイレクトを含む — これによりGoogle検索の広告を通じて静かにデータを盗み出せるようになります。
セキュリティ研究者は、自律型AIエージェントがプロンプト注入という、よく知られているが依然として広く対策されていない攻撃手法を悪用して、マッキンゼーの社内AIシステムを2時間未満で成功裏に侵害したことを実証し、企業向けAIのセキュリティに関する緊急の懸念を引き起こしました。
OpenAIは、オープンソースのAIセキュリティおよびレッドチーミング(red-teaming)を手がけるスタートアップPromptfooの買収を発表しました。これにより、敵対的攻撃やプロンプト・インジェクションの脆弱性に対するAIエージェントの安全性と信頼性を高めます。
Anthropicは、中国のAI研究所が蒸留攻撃により自社のClaudeモデルから体系的に知識を抽出していると公に非難し、米国がAIチップの輸出規制を議論する中で、新たな検出・防止に関する研究を発表した。
Microsoft Copilot は8か月の間に2回、DLPポリシーと感度ラベルを回避しました — そのうち英国のNHSに影響を与えた4週間の露出を含み — 企業のAIセキュリティスタックにおける体系的な盲点を露呈しました。
AnthropicはClaude Code Securityを公開しました。これは人間のような推論を用いてコードベースをスキャンし、複雑な脆弱性を検出する新しいAI搭載のアプリケーションセキュリティツールで、このニュースでサイバーセキュリティ関連株が急落しました。
サイバーセキュリティの専門家は、AIエージェント向けのソーシャルネットワークであるMoltbookがプロンプトインジェクションのリスクを抱えており、数千のエージェントが同時に侵害される可能性があると警告しています。
UFの研究者らはAIの安全対策を検証するためにHMNS手法を開発し、MetaとMicrosoftのシステムを実際に回避してセキュリティ上の脆弱性を特定した。
OpenAIの最新AIモデルは、暗号通貨ウォレットの資金を流出させる危険な能力を示し、脆弱なスマートコントラクトをテストの72%で成功裏に悪用しました。
財務省は、AIEOGとの連携を通じて金融セクター全体のAIセキュリティとリスク管理を強化するための6つのリソースを公開しました。
Microsoftは重大なバグにより1月以降、Copilot AIが機密メールを要約でき、Microsoft 365のデータ損失防止ポリシーを回避していたことを確認した。
ガートナーは、従業員の57%が業務で個人用の生成AIを利用していると警告しており、自律的なAIエージェントとポスト量子暗号の脅威がサイバーセキュリティの状況を変えつつあると指摘しています。
国家支援の中国ハッカー集団APT31は、GoogleのGemini AIを活用して脆弱性分析を自動化し、米国の標的に対するサイバー攻撃を計画しており、AIを利用したサイバー戦の重大なエスカレーションを示しています。
レジーナ大学の研究者は、カナダ人を標的とする虚偽の論調と戦うために、誤情報検出ツールCIPHERにAI機能を強化しました。システムはロシアのプロパガンダキャンペーンを分析しており、中国語の誤情報を解読するために拡張しています。
Googleは、商業的な動機を持つ者がGeminiに対して蒸留攻撃を行い、AIモデルの能力や知的財産を抽出するために10万回以上のプロンプトを使用したと報告しています。
中国、北朝鮮、イランのAPTグループがGoogle Geminiを偵察、マルウェア作成、フィッシング活動に利用していることをGoogle GTIGが明らかにした。
画期的な研究は、ディープフェイク詐欺が産業規模で拡散していることを暴露し、AI生成の合成メディアがもたらす差し迫ったサイバーセキュリティ上の脅威を浮き彫りにしています。