AI News

Google、Gemini 3 Flash向けにAgentic Visionで視覚AIを変革

Googleは、軽量なGemini 3 Flashモデル向けの画期的なアップグレード「Agentic Vision」を正式に発表しました。これは人工知能が視覚データを解釈する方法を根本的に変える機能です。2026年1月下旬に公開されたこの新機能により、AIの視覚は受動的で静的な観察プロセスから、能動的で調査的なワークフローへと移行しました。Gemini 3 Flashは「Think-Act-Observe」サイクルを統合することで、コードを書いて実行し、画像を自律的に検査、操作、分析できるようになり、従来のマルチモーダルモデルでは達成できなかった精度を実現します。

この開発は、生成AI(Generative AI)の競争環境における重要な転換点を示しており、モデルが細かな視覚情報を処理する際の長年の制約に対処します。従来のモデルが一度の処理で小さなテキストや複雑な図を「推測」することがあったのに対し、Agentic VisionはAIを人間の捜査者のように扱えるようにします—ズームインや向きの調整、視覚的証拠に基づく計算を行います。

静的観察から能動的観察への移行

Agentic Visionのコアとなる革新は、「一発処理(one-shot)」からの脱却です。以前の世代のビジョン言語モデル(Vision Language Models、VLMs)では、AIは画像全体を1回の順方向パスで処理していました。一般的な説明には有効でしたが、この手法は遠くの道路標識やマイクロチップ上のシリアル番号、または情報が密集した技術的な図面のような高密度情報を扱う際にはしばしば失敗しました。

Agentic Visionはこの静的アプローチを動的なループに置き換えます。複雑な視覚タスクが与えられると、Gemini 3 Flashは単に即答を出すのではなく、構造化された推論プロセスに入ります。

  1. 思考: モデルはユーザーのプロンプトと初期画像を分析し、複数ステップの計画を立てます。
  2. 行動: 画像を能動的に操作するためのPythonコードを生成して実行します。これには特定部分のトリミング、視点の回転、注釈の付与などが含まれます。
  3. 観察: 変換された画像データはモデルのコンテキストウィンドウに追加され、新たな証拠を再検討した上で最終的な応答を生成します。

この再帰的プロセスにより、モデルはピクセルレベルのデータに推論を「根ざす」ことができ、幻覚(hallucinations)を大幅に減らします。Googleの報告によれば、この能動的な調査手法はほとんどの視覚ベンチマークで一貫して品質を5~10%向上させ、特に正確な局在化やカウントを要するタスクで大きな改善が見られます。

「Visual Scratchpad」とコード駆動の推論

Agentic Visionの最も実用的な応用の一つが「Visual Scratchpad」です。指の本数や棚の上のアイテム数のようなカウント作業を要求された場合、Gemini 3 FlashはPythonを使ってバウンディングボックスを描画し、検出した各オブジェクトに数値ラベルを割り当てることができます。

この機能は、生成AIが長年抱えてきた弱点、つまり複雑なシーン内の物体を正確に数えることができない点に対処します。カウントのロジックを確定的なコード実行にオフロードすることで、確率的なトークン生成のみに依存するよりも高い精度を確保します。

Agentic Visionの主要機能:

Feature Description Benefit
Active Zooming モデルが自律的に画像の一部を切り取り、リサイズして細部を検査します。 ユーザーの介入なしに小さなテキスト、シリアル番号、遠景の物体を読み取れるようにします。
Visual Arithmetic 高密度の表を解析し、抽出したデータに対してPythonコードで計算を実行します。 財務や科学データを処理する際に標準的なLLMで発生しがちな計算ミスを排除します。
Iterative Annotation 解析中に「visual scratchpad」を使って画像にバウンディングボックスやラベルを描画します。 カウントや局在化を視覚的に検証し、物体検出タスクの幻覚を減らします。
Dynamic Manipulation 解析前に画像を回転または変換して向きを補正できます。 ドキュメントスキャンや奇妙な角度で撮影された写真の理解を改善します。

技術的実装と提供状況

視覚パイプラインにコード実行を直接統合した点が、Gemini 3 Flashを際立たせています。モデルが自分の視覚入力を変更するためにツール、具体的にはPythonを使用できるようにすることで、GoogleはAIに虫眼鏡と計算機を与えたに等しい機能を付与しています。

現在、Agentic VisionはGoogle AI StudioとVertex AIのGemini APIを通じて開発者向けに提供されています。また、Geminiアプリの「Thinking」モデル選択を通じて一般ユーザー向けにも展開されています。現行のイテレーションは暗黙的なズーミングとコード実行に焦点を当てていますが、Googleは回転や視覚的計算のようなより高度な暗黙的動作を含むロードマップを示しています。将来のアップデートでは、ユーザーが明示的にプロンプトで促さなくても複雑な変換を自動化することを目指しています。

さらに、GoogleはAgentic Visionが利用できるツールセットの拡張を計画しています。今後の統合により、モデルがウェブ検索やリバース画像検索を利用できるようになり、視覚データを外部情報と照合して世界の理解をさらに確かなものにする可能性があります。

エンタープライズおよび開発への影響

開発者やエンタープライズユーザーにとって、Agentic Visionは文書処理や自動検査のためのより信頼性の高いソリューションを提供します。技術図面からのデータ抽出、写真のコンプライアンス確認、アナログ記録のデジタル化に依存する産業は、Think-Act-Observeループを通じてモデルが自らの作業を「再検証」する能力を活用できます。

このリリースにより、Gemini 3 Flashはエージェンティックなワークフロー向けの高度に特化したツールとして位置づけられ、速度よりも精度と推論の深さが重視される場面で有用です。AIエージェントがより自律的になるにつれ、視覚入力を能動的に検証する能力は、実験的なプロトタイプから信頼性のある実世界アプリケーションへの移行において重要となるでしょう。

フィーチャー