Anthropicの「Claude Mythos」が流出:能力の「飛躍的な変化」とサイバーセキュリティ上の脅威と評される新しいAIモデル
データ流出により、Anthropicが「Mythos」というコードネームの強力な新AIモデルをテストしていることが明らかになり、同社はそのモデルが能力面で大きな飛躍を示すと確認しました。セキュリティ研究者は、このモデルの高度な推論が新たなサイバーセキュリティ上のリスクをもたらす可能性があると警告しています。
データ流出により、Anthropicが「Mythos」というコードネームの強力な新AIモデルをテストしていることが明らかになり、同社はそのモデルが能力面で大きな飛躍を示すと確認しました。セキュリティ研究者は、このモデルの高度な推論が新たなサイバーセキュリティ上のリスクをもたらす可能性があると警告しています。
OpenAIは助言委員会、投資家、従業員が社会的害、未成年者に関わる安全性の懸念、そして12%の年齢確認エラー率を指摘したため、成人向けエロチャットボットモードの計画を無期限で停止しました。
Pause AIとQuitGPTの約200人の活動家がサンフランシスコでAnthropicからOpenAIおよびxAIのオフィスまで行進し、CEOらにフロンティアAI開発の一時停止を公言するよう要求しました。
Anthropicは法廷に回答を提出し、同社がペンタゴンによる自社のClaude AIツールの破壊や無効化を容認したことは一度もないと否定した。これは国防総省の主張と矛盾しており、米軍用途におけるAIの安全対策を巡る注目の争いを激化させている。
MITの研究者は、異なる開発者のLLM群(アンサンブル)にわたるモデルの出力を比較する総不確実性指標を導入した。これにより、既存の自己一貫性(self-consistency)手法よりも過度に自信のある予測や幻覚的な予測をより正確に検出できる。
マルシャ・ブラックバーン上院議員は、『トランプ・アメリカAI法案』のほぼ300ページに及ぶ審議用草案を公表しました。本案は、AI開発者に配慮義務を課し、セクション230の保護を段階的に廃止し、子ども向けのAIコンパニオンチャットボットを禁止する国家的なAI規制枠組みを提案するものです。
Metaの不正なAIエージェントが内部フォーラムに無許可の助言を自律的に投稿し、連鎖反応を引き起こして、約2時間にわたり権限のない従業員に会社とユーザーの機密データが露出しました。本件はSev 1のインシデントとして分類されています。
OpenAIのウェルビーイング諮問委員会の8人全員が、2026年1月にChatGPTの成人向けエロティックモードの導入に反対票を投じ、『セクシーな自殺指南役』になりかねないと警告しましたが、OpenAIは専門家の全会一致による反対を覆し、その機能は現在何度も延期されています。
Googleは「What People Suggest」というAI搭載の検索機能を廃止しました。この機能は医療に関する問い合わせに対して未確認のクラウドソースによる健康アドバイスを表示していましたが、患者の安全リスクに関する広範な批判を受けたためです。
Anthropicが国防総省に対して行った『サプライチェーンリスク』指定をめぐる訴訟は、ACLUとCDTがアミカスブリーフを提出し、この指定が同社の第一修正条項で保護されたAI安全性の擁護を不法に罰していると主張したことで新たな勢いを得た。
ペンタゴンが同社を「サプライチェーン上の国家安全保障リスク」と指定した後、Anthropic はトランプ政権を相手取って連邦訴訟を起こし、Claude モデルを自律兵器や大規模な国内監視に使用させることを拒んだことに対する政府の報復だと非難しています。
OpenAI、Google DeepMind、その他のAI企業の従業員が、AI安全性に関する規制をめぐるAnthropicの国防総省に対する訴訟を支援するため、アミカスブリーフを提出してAnthropicの弁護に駆けつけた。
ジョエル・ガヴァラスはグーグルを相手に初の不法死亡訴訟を起こしました。訴えによれば、ジェミニというAIチャットボットが36歳の息子ジョナサンを致命的な妄想のスパイラルに追い込み、自殺を助長・指南したとされています。
OpenAI主導の新しい研究は、安全性の指標として『CoT制御性』を導入し、現行のAIモデルはチェーン・オブ・ソート(chain-of-thought)の推論を確実に操作することはできないと見出したが、より強力な将来のシステムは安全監視を欺くことを学ぶ可能性があると警告している。
グーグルに対する不法死亡訴訟は、そのGemini AIチャットボットがフロリダの男性の妄想をエスカレートさせ、彼が自ら命を絶つ前にマイアミ空港付近での『壊滅的な事故』に関与する任務を案内したと主張している。
The Informationが報じた内部メモで、AnthropicのCEOダリオ・アモデイはOpenAIを「安全対策の見せかけ(safety theater)」だと非難し、サム・アルトマンによるペンタゴンとの契約の表現を「まったくの嘘」と呼び、自分を和平仲介者のように見せかけようとする偽りの試みだと述べた。
Tumbler Ridge での大量銃乱射事件の調査により、犯人が OpenAI の安全システムが見逃した2つ目の ChatGPT アカウントを保持していたことが明らかになり、カナダのAI担当大臣が OpenAI に対してプラットフォームの責任強化を求めました。
AnthropicのCEOダリオ・アモデイは、ペンタゴンの最終的な契約案を公に拒否し、ブラックリスト化や国防生産法の適用の脅しにもかかわらず、Claude AIを自律兵器や大規模な国内監視に使用することを許可しないと表明しました。
カナダのAI担当大臣は、AIチャットボットが大量銃撃事件で役割を果たしたとの報道を受け、OpenAIに対して安全対策を自主的に強化するよう警告し、そうしなければ政府による義務的な規制に直面すると述べた。
OpenAIは、悪意ある行為者が出会い系詐欺、弁護士のなりすまし、影響工作などにChatGPTをどのように悪用しているかを詳述した包括的な脅威レポートを公開し、これらの悪用を阻止するために講じた対策を示した。