
Dans un moment déterminant pour l'intelligence artificielle mobile au MWC 2026, Google a annoncé une mise à jour transformatrice de Gemini Live, dotant son IA conversationnelle de la capacité à « voir » et à comprendre le monde via la vidéo en direct et le partage d'écran. Ce développement marque la réalisation commerciale de la vision « Project Astra », faisant passer Gemini Live d'interactions uniquement vocales à une expérience pleinement multimodale qui traite les données visuelles en temps réel.
Prévue pour être déployée auprès des abonnés Advanced sur les appareils Android en mars 2026, cette mise à jour place Google en position de concurrence agressive face aux modèles multimodaux rivaux, offrant aux utilisateurs un assistant numérique qui peut non seulement entendre et parler, mais aussi observer et analyser à la fois l'environnement physique et le contenu à l'écran.
Le cœur de cette mise à jour est l'intégration du traitement visuel en temps réel dans l'interface de Gemini Live. Auparavant, les utilisateurs pouvaient converser avec Gemini, mais l'IA manquait de contexte sur l'environnement immédiat de l'utilisateur à moins que des photos ne soient téléchargées manuellement. Avec la nouvelle fonctionnalité Analyse vidéo en direct, la dynamique change fondamentalement.
Les utilisateurs peuvent désormais activer la caméra au sein d'une session Gemini Live, ce qui permet à l'IA de traiter un flux vidéo continu. Cela rend l'interaction plus naturelle et fluide, où l'IA peut identifier des objets, lire du texte dans l'environnement et fournir des conseils contextuels sans que l'utilisateur ait besoin de prendre des images statiques.
Les applications pratiques de cette technologie sont vastes. Google a démontré plusieurs cas d'utilisation convaincants lors de l'annonce :
Au-delà du monde physique, Google offre à Gemini Live une compréhension approfondie de l'espace de travail numérique via les fonctionnalités Contexte d'écran. Cette fonctionnalité permet à l'IA de « voir » l'écran de l'utilisateur pendant une conversation, comblant ainsi le fossé entre l'assistance en arrière-plan et la collaboration active.
Lorsqu'elle est activée, les utilisateurs peuvent appuyer sur un bouton « Partager l'écran avec Live », accordant à l'IA la permission d'analyser l'application ou le site web actif. Contrairement à l'analyse d'une simple capture d'écran, cette fonctionnalité prend en charge un dialogue continu pendant que l'utilisateur navigue sur son appareil.
Cas d'utilisation clés pour le partage d'écran :
Le passage de l'itération précédente de Gemini Live à cette nouvelle version multimodale représente un bond significatif en termes de capacités. Le tableau suivant décrit les principales différences :
| **Ensemble de fonctionnalités | Gemini Live (2025) | Gemini Live Multimodal (2026)** |
|---|---|---|
| Entrée principale | Voix et texte | Voix, texte, vidéo en direct, partage d'écran |
| Contexte visuel | Téléversements d'images statiques uniquement | Flux vidéo continu en temps réel |
| Style d'interaction | Audio en mode tour par tour | Conversation fluide et multimodale |
| Latence | Traitement standard | Faible latence optimisée (Project Astra Tech) |
| Conscience de l'écran | Limitée (basée sur des captures d'écran) | Surveillance active de l'écran et assistance à la navigation |
Cette mise à jour est largement alimentée par les avancées réalisées dans le cadre de « Project Astra », une initiative de recherche axée sur la création d'agents d'IA universels capables de percevoir, raisonner et agir en temps réel. La transition de ces fonctionnalités d'une démonstration de recherche à un produit grand public met en évidence le cycle de développement accéléré de Google dans le domaine de l'IA générative (Generative AI).
Pour atteindre la faible latence requise pour une conversation « en direct » sur de la vidéo, Google a optimisé l'architecture Gemini 2.0. Le traitement de trames vidéo continues exige une puissance de calcul immense ; Google utilise une approche hybride, traitant certaines données sur l'appareil (via les dernières puces Tensor) tout en déléguant le raisonnement complexe vers le cloud. Cela garantit que lorsqu'un utilisateur demande « Quel est ce bâtiment ? » en balayant sa caméra, la réponse est presque instantanée.
Avec l'introduction de fonctionnalités d'IA en mode surveillance permanente, la confidentialité reste une préoccupation majeure. Google a mis en place des garde-fous stricts pour ces nouvelles capacités :
Google a confirmé que ces fonctionnalités ne seront pas initialement disponibles pour le niveau gratuit des utilisateurs de Gemini. Le déploiement est prévu pour mars 2026, exclusivement pour les abonnés Advanced sur le plan Google One AI Premium.
Le lancement privilégiera l'écosystème Android, avec une intégration poussée prévue pour les appareils Pixel et la dernière série Galaxy S de Samsung. Bien qu'une sortie sur iOS soit attendue, aucun calendrier précis n'a été communiqué lors de l'annonce au MWC. Cette stratégie souligne l'intention de Google d'utiliser sa maîtrise de l'IA comme un élément différenciateur clé pour la plateforme Android.
À mesure que les frontières entre assistants numériques et perception de niveau humain s'estompent, les nouvelles capacités de Gemini Live fixent un haut niveau pour les concurrents. La capacité de passer sans friction entre parler, montrer et partager crée une expérience d'assistant mobile qui correspond enfin à la promesse de la science-fiction d'un compagnon IA toujours conscient.