au sommaire
GoogleGoogle vient d’annoncer quelques petites nouveautés pour Lens, son applicationapplication de reconnaissance d'images boostée à l'intelligence artificielleintelligence artificielle. Bien que cette fonctionnalité existe déjà bien avant l'arrivée de ChatGPTChatGPT et autres nouvelles IA, Lens n'a que très peu évolué récemment.
Toutefois, Lens va désormais pouvoir comprendre les questions énoncées à l'oral, et analyser le contenu de vidéos grâce à une version de Gemini optimisée. Il suffira dorénavant de diriger la caméra vers quelque chose dont vous souhaitez obtenir plus d'informations et d'enregistrer une vidéo tout en posant une question. Selon Google, cela permet par exemple d'obtenir des informations pour réparer un objet sans connaître les termes techniques, simplement en montrant le problème à l'IA.
Une fonction encore expérimentale
Pour poser ses questions à Lens, il faut ouvrir l'application Google sur AndroidAndroid ou iOSiOS et appuyer sur l'icôneicône de la caméra, puis maintenir le déclencheur et énoncer sa question. Lens va enregistrer une vidéo puis l'analyser avec Gemini. Bien que rapide, ce système n'est donc pas en temps réel, comme les nouvelles fonctionnalités annoncées pour Visual Intelligence d'AppleApple ou la discussion vocale de Copilot. Toutefois, cela permet à Google de prendre de l'avance sur la concurrence.
La recherche vidéo avec Lens n'est disponible pour l'instant qu'à titre expérimental et uniquement en anglais. Pour y accéder, il faut s'inscrire à l'option « AI Overiews and more » dans Google Labs.
Suivez Futura sur WhatsApp et Google Actualités
pour ne rien rater de l’actualité sciences & tech !