As-tu entendu parler du projet Astra de Google ?
C’est un projet qui ambitionne de faire de Gemini, un assistant IA multimodal, capable de voir le monde en temps réel et d’y réagir instantanément.
Eh bien ça commence à prendre vie avec deux nouvelles fonctionnalités bientôt disponibles dans Gemini Live : Vidéo en direct et Screenshare.
Présentées au Mobile World Congress (MWC) 2025, elles permettent d’interagir avec l’IA d’une façon plus intuitive.
Vidéo en direct : pose des questions en filmant
Grâce à l’option “Vidéo en direct”, plus besoin de taper une requête compliquée.
Tu ouvres Gemini, tu allumes la caméra et tu demandes directement ce que tu veux savoir pendant que tu filmes. Ça peut être un objet, un lieu ou une action.
L’IA analyse en temps réel ce qu’elle voit et te répond.
Scénarios possibles :
- Tu montres une pièce en cours (céramique, bois, textile…) et tu demandes des conseils sur les matériaux ou les finitions.
- Tu filmes un produit et Gemini te propose des idées de mise en scène ou d’association avec d’autres articles pour booster les ventes.
- Un problème mécanique ou un composant inconnu ? L’IA peut t’aider à identifier la pièce et suggérer des solutions.
- Tu montres un espace et demandes à Gemini quelles couleurs ou matières conviendraient pour un rendu spécifique.
Fini les recherches fastidieuses : tu montres, tu demandes, et Gemini Live répond.
Screenshare : Gemini voit ton écran et t’aide en direct
Deuxième nouveauté : le partage d’écran.
Ici, pas besoin de filmer quoi que ce soit.
Tu ouvres Gemini, tu partages simplement ce qui s’affiche sur ton téléphone, et l’IA analyse le contenu pour te répondre.
Exemples concrets :
- Tu hésites entre deux vestes ? Tu montres la page produit et Gemini te donne des conseils sur le style ou les associations possibles.
- Un contrat, une facture, un article ? Affiche-le sur ton écran, Gemini t’en résume les points clés.
- Tu regardes un site de e-commerce ? L’IA peut décrypter les stratégies des concurrents.
- Un bug sur une app ? Un message d’erreur bizarre sur un site ? Plutôt que d’expliquer à Gemini, tu lui montres directement.
- Etc.
Un peu comme ce que fait déjà Google Lens, mais intégré directement à Gemini.
Mais ce n’est pas pour tout le monde (évidemment)
Sans surprise, ces nouvelles fonctionnalités ne seront pas accessibles à tout le monde.
Seuls les abonnés Gemini Advanced qui ont souscrit à Google One AI Premium pourront en profiter.
Traduction : si tu ne paies pas, Gemini ne “voit” rien.
Sinon, tu peux toujours attendre que ça arrive dans une version gratuite … ou aller voir du côté des concurrents.
📅 Déploiement prévu fin mars uniquement sur Android dans un premier temps.
🍏 Les utilisateurs iOS devront attendre (et on ne sait pas combien de temps).
Ce que j’en dis
Sur le papier, ces nouveautés sont intéressantes.
Pouvoir demander des infos en filmant ou partageant son écran, ça fait gagner du temps.
Et je trouve que c’est une évolution logique des assistants IA.
Si tu gères un business, une boutique en ligne ou un projet créatif, ça pourrait être un vrai coup de pouce.
Mais pour rappel : Google n’est pas le premier à proposer ça..
Ces options sont déjà disponibles dans le mode vocal avancé dans ChatGPT depuis fin 2024 sauf que ce n’est pas dispo en UE.
L’assistant mobile de Perplexity AI joue aussi dans cette cour. Sans oublier Copilot Vision du côté de Microsoft.
Par contre, l’avantage de Gemini, c’est l’intégration native à Android.
Maintenant, reste à voir si ça marche vraiment bien.
Est-ce qu’on aura des réponses pertinentes en temps réel ? Ou est-ce qu’on va encore se taper du “Je ne suis pas sûr de comprendre” toutes les 30 secondes ?
🤞 Espérons que Google ne nous ait pas survendu le truc…