Passer au contenu

Un assistant dopé à l’IA dans les lunettes Ray-Ban de Meta

Meta et Ray-Ban vont intégrer de l’intelligence artificielle dans leurs lunettes connectées. Cette mise à jour va ajouter des services de traduction, d’identification d’objets, d’animaux et de monuments grâce à la caméra embarquée dans la monture.

Les utilisateurs pourront invoquer l’assistant intelligent des lunettes en prononçant « Hey Meta », suivi d’une commande ou d’une question. L’IA intégrée dans la monture répondra via les haut-parleurs intégrés, le tout avec une interaction aussi fluide que possible.

Des lunettes connectées plus intelligentes

Selon un essai mené par le New York Times, ces lunettes se sont révélées performantes dans toutes sortes de situations, que ce soit au supermarché, en conduite, dans des musées ou encore au zoo, malgré quelques lacunes dans l’identification d’animaux distants ou d’aliments exotiques (comme le chérimolier que bien peu de gens connaissent, il faut le reconnaitre).

La reconnaissance fonctionne donc bien dans des conditions idéales, mais des difficultés subsistent, notamment dans l’identification à distance ou pour des éléments moins communs. Cependant, la possibilité de demander à l’assistant de traduire un texte ou de fournir des informations sur un monument représente une avancée intéressante de l’IA dans la vie quotidienne.

Cette technologie de traduction supportera plusieurs langues, dont l’anglais, l’espagnol, l’italien, l’allemand et le français, et Meta promet de peaufiner ces outils au fil du temps. Pour l’instant, l’accès à ces fonctionnalités d’IA est limité à une liste d’attente pour les utilisateurs américains, l’entreprise voulant les déployer de manière progressive.

La principale nouveauté de ces lunettes lancées en septembre dernier est de prendre des photos et de diffuser des vidéos en streaming ; elles intègrent aussi des haut-parleurs pour écouter de la musique ou passer des appels. Cette mise à jour logicielle prévue en avril ajoutera donc une couche d’intelligence artificielle, ce qui permettra aux lunettes d’interagir de manière plus approfondie avec l’environnement de l’utilisateur.

Les lunettes Meta Ray-Ban représentent une étape importante vers l’intégration de l’intelligence artificielle dans des appareils portables au quotidien. Malgré les limites actuelles, le potentiel pour une expérience utilisateur enrichie est évident.

L’aspect pratique d’avoir un assistant toujours à disposition, sans avoir à sortir un téléphone ou à manipuler d’autres appareils, représente un atout majeur (même s’il faudra toujours avec son smartphone à proximité puisque c’est de lui que viennent toutes les informations). La réussite de cette technologie dépendra de l’amélioration continuelle de ses capacités d’identification et de traduction, ainsi que de son adoption par le grand public.

Reste à voir si les utilisateurs seront prêts à embrasser cette nouvelle forme d’interaction avec la technologie. Car il existe un vrai risque de paraître excentrique en parlant à ses lunettes en public ! Néanmoins, cela reste socialement plus acceptable que de se balader avec un casque de réalité mixte dans la rue…

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : NYT

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *