Skip to main content

18 Déc, 2023

Les lunettes intelligentes Ray-Ban Meta se dotent de fonctions de recherche visuelle alimentées par l’IA

Les lunettes intelligentes Ray-Ban Meta se dotent de fonctions de recherche visuelle alimentées par l’IA

Désormais, l’IA de Meta peut également répondre aux requêtes avec des informations en temps réel.

Les lunettes intelligentes Ray-Ban Meta sont sur le point de recevoir de puissantes mises à jour grâce aux améliorations apportées à l’assistant IA du réseau social. L’entreprise ajoute enfin la prise en charge des informations en temps réel à l’assistant embarqué, et commence à tester de nouvelles capacités « multimodales » qui lui permettent de répondre à des questions en fonction de votre environnement.

Jusqu’à présent, Meta AI avait un « seuil de connaissances » fixé à décembre 2022, et ne pouvait donc pas répondre à des questions sur l’actualité, les scores des matchs, les conditions de circulation ou d’autres requêtes qui seraient particulièrement utiles en déplacement. Mais cela est en train de changer, selon Andrew Bosworth, directeur technique de Meta, qui a déclaré que toutes les lunettes intelligentes Meta aux États-Unis seront désormais capables d’accéder à des informations en temps réel. Ce changement est dû « en partie » à Bing, a-t-il ajouté.

Par ailleurs, Meta commence à tester l’une des capacités les plus intrigantes de son assistant, qu’elle appelle « l’IA multimodale ». Cette fonctionnalité, présentée en avant-première lors de la conférence Connect, permet à Meta AI de répondre à des questions contextuelles sur votre environnement et à d’autres requêtes basées sur ce que vous regardez à travers les lunettes.

Les nouvelles fonctionnalités de Meta AI

Les mises à jour pourraient contribuer à rendre Meta AI moins gadget et plus utile, ce qui était l’un de des principaux reproches lors de la première évaluation des lunettes intelligentes, par ailleurs impressionnantes. Malheureusement, il faudra encore un certain temps avant que la plupart des utilisateurs de lunettes intelligentes puissent accéder à la nouvelle fonctionnalité multimodale. Andrew Bosworth a indiqué que la version bêta d’accès anticipé ne sera disponible aux États-Unis que pour un « petit nombre de personnes qui s’inscrivent » dans un premier temps, l’accès élargi étant vraisemblablement prévu pour 2024.

Mark Zuckerberg a partagé quelques vidéos des nouvelles capacités qui donnent une idée de ce qui pourrait être possible. D’après ces vidéos, il semble que les utilisateurs pourront activer la fonctionnalité à l’aide de commandes commençant par « Hey Meta, regarde et dis-moi ». Zuckerberg, par exemple, demande à Meta AI de regarder une chemise qu’il tient et de lui suggérer un pantalon qui pourrait aller avec. Il a également partagé des captures d’écran montrant Meta AI en train d’identifier l’image d’un fruit et de traduire le texte d’un mème.

Dans une vidéo publiée sur Threads, Andrew Bosworth explique que les utilisateurs pourront également interroger Meta AI sur leur environnement immédiat ainsi que sur des questions plus créatives, comme la rédaction de légendes pour les photos qu’ils viennent de prendre.

https://www.engadget.com/the-ray-ban-meta-smart-glasses-are-getting-ai-powered-visual-search-features-204556255.html