Les lunettes connectées Ray-Ban Meta peuvent traduire des conversations en temps réel
Les lunettes intelligentes Ray-Ban de Meta reçoivent plusieurs fonctions dopées à l'IA assez impressionnantes. Au programme : un assistant en temps réel, de la traduction instantanée et l'intégration de Shazam.
Après les smartphones, les tablettes, les écouteurs sans fil, les montres et les bagues connectées, le prochain produit mobile prêt à envahir notre quotidien pourrait bien être les lunettes connectées, également appelées lunettes intelligentes ! De nombreux géants du numérique s'y sont mis, comme Google, Lenovo, Meta ou encore Oppo. Les Ray-Ban Stories 3 de Meta, sorties en octobre 2023, connaissent un franc succès à travers le globe, y compris en France.
Les deux entreprises améliorent progressivement leur produit. Elles ont notamment commencé à y intégrer de l'intelligence artificielle en avril dernier. Ça tombe bien, la dernière mise à jour (v11) vient ajouter plusieurs fonctions très intéressantes, comme l'annonce Meta dans un billet de blog. Au programme : une IA capable d'analyser en continu l'environnement de l'utilisateur, de la traduction en temps réel et l'intégration de Shazam.
Ray-Ban Meta : Live AI, traduction instantanée et Shazam
La première fonction se nomme Live AI. Elle permet à l'intelligence artificielle de Meta de "voir ce que vous voyez en permanence et de converser avec vous plus naturellement que jamais" sans avoir à utiliser la commande "Hey Meta". Il est par exemple possible d'obtenir une recette à partir des ingrédients posés devant soi, de recevoir des conseils en jardinage ou encore des informations sur un quartier. Pour le moment, la fonction est limitée à des sessions de 30 minutes. "À terme, l'IA en direct vous donnera des suggestions utiles au bon moment, avant même que vous n'ayez posé la question", promet Meta.
La deuxième fonction ajoutée est assez incroyable, puisqu'il s'agit de la traduction de conversations en temps réel. "Lorsque vous parlez à quelqu'un qui parle l'une de ces trois langues, vous entendez ce qu'il dit en anglais grâce aux haut-parleurs des lunettes ou sous forme de transcription sur votre téléphone, et vice versa", explique l'entreprise. Sont pour l'instant uniquement pris en charge l'anglais, l'espagnol, le français et l'italien, mais nul doute que Meta devrait ajouter plus de langues par la suite. Notons que, pour fonctionner, le système requiert le téléchargement préalable de packs linguistiques et la configuration des langues de l'utilisateur et de son interlocuteur.
Enfin, cette mise à jour marque l'arrivée de Shazam au sein des lunettes. Ainsi, il sera possible de retrouver un morceau diffusé autour de soi par le biais d'une simple commande vocale. Pour l'instant, les fonctions Live AI et de traduction en temps réel sont uniquement disponibles pour les membres du programme d'accès anticipé de Meta, qui lui-même n'est accessible qu'aux États-Unis et au Canada. Elles devraient arriver en version stable en 2025. Quant à la fonction Shazam, elle est d'ores et déjà disponible pour tous, mais là encore uniquement au sein de ces deux pays.
Reste à espérer qu'elles fassent leur chemin jusqu'en Europe, mais ce n'est pas certain. En effet, ces nouvelles fonctions nécessitent la collecte d'une énorme quantité de données. Pas sûr que les autorités européennes voient cela d'un très bon œil…