MITの研究者が過度に自信のある大規模言語モデルを識別し幻覚を検出する新手法を開発
MITの研究者は、異なる開発者のLLM群(アンサンブル)にわたるモデルの出力を比較する総不確実性指標を導入した。これにより、既存の自己一貫性(self-consistency)手法よりも過度に自信のある予測や幻覚的な予測をより正確に検出できる。
MITの研究者は、異なる開発者のLLM群(アンサンブル)にわたるモデルの出力を比較する総不確実性指標を導入した。これにより、既存の自己一貫性(self-consistency)手法よりも過度に自信のある予測や幻覚的な予測をより正確に検出できる。
Anthropicは、Claudeの1日あたりアクティブユーザー数が2026年1月以来140%以上急増する中、ピーク外時間のClaude AI加入者向け利用上限を2倍にすることを発表した。これは大幅な容量拡大である。
AnthropicはClaude Sonnet 4.6を発表しました。本モデルは100万トークンのコンテキストウィンドウを備え、コーディング、コンピュータ操作、エージェントにおいて最先端のAI性能を提供します。Opus 4.6の公開からわずか12日後のリリースです。
Claude Opus 4.6は、1Mトークンのコンテキストウィンドウ、並列調整のためのエージェントチーム、そして企業向けワークフローのための適応的な思考など、画期的な機能を導入します。
マウントサイナイの研究は、AIの大規模言語モデルが医療に関する誤情報を32〜46%の確率で信じることを示しており、特にそれが専門家の助言として提示された場合に顕著です。
AIの先駆者ヤン・ルカンはメタを離れ、AI業界が大規模言語モデル(LLM)に過度に注力しており誤った方向に向かっていると警告した。彼は予測型の世界モデルへの転換を提唱している。