Les lunettes Meta Ray-Ban obtiennent un affichage et capture vidéo

Meta ajoute un écran aux lunettes Ray-Ban, permettant l'écriture virtuelle et la capture vidéo de la vue de la lentille.

Meta Ray-Ban Smart Glasses Get Display and Video Capture

Image: theverge.com

Meta a introduit une nouvelle fonctionnalité pour ses lunettes intelligentes Ray-Ban, permettant aux utilisateurs de voir du texte et des images virtuels superposés au monde réel via un affichage sur la lentille. Cette mise à jour, annoncée début 2025, permet des fonctions comme l'écriture virtuelle et la prise de notes directement dans le champ de vision de l'utilisateur.

De plus, les lunettes prennent désormais en charge la capture vidéo qui combine ce que l'utilisateur voit sur l'écran de la lentille, l'environnement réel et l'audio environnant. Cette capacité d'enregistrement en réalité mixte est conçue pour la création et le partage de contenu mains libres.

La fonctionnalité fait partie de l'effort continu de Meta pour intégrer la réalité augmentée dans les lunettes de tous les jours. Les lunettes intelligentes Ray-Ban Meta, initialement sorties en 2023, ont été mises à jour avec des améliorations logicielles et de nouvelles capacités matérielles au fil du temps.

En mai 2026, la fonctionnalité d'affichage est disponible pour tous les utilisateurs via une mise à jour logicielle, bien que la disponibilité puisse varier selon la région. Meta n'a pas divulgué de chiffres de vente spécifiques mais continue d'étendre les fonctionnalités des lunettes.

❓ Frequently Asked Questions

What new feature did Meta add to Ray-Ban smart glasses?

Meta added a lens display that overlays virtual text and images on the real world, along with video capture of the display view.

When was this feature announced?

The feature was announced in early 2025, with availability to all users via software update by May 2026.

Can users record videos with the display?

Yes, the glasses can capture video combining the lens display, real-world view, and audio.

📰 Source:
theverge.com →
Partager: