🧭 Un nouvel objet du quotidien en mutation

Souviens-toi du moment où la Apple Watch est apparue sur le marché : une montre qui allait bien au-delà de l’heure, nous connectant à notre santé, à nos proches et à nos notifications. Le secteur des montres-bracelets, qui n’avait pas beaucoup évolué depuis près d’un siècle, s’est vu révolutionné par ce petit écran au poignet. Peu de gens auraient cru alors qu’ils paieraient plusieurs centaines de dollars pour une montre et pourtant, regarde autour de toi : les montres intelligentes sont aujourd’hui plus courantes que les montres traditionnelles.

Et si les lunettes vivaient aujourd’hui leur propre révolution ? Avec les lunettes intelligentes Meta AI, une nouvelle génération d’assistants visuels s’annonce. Je m’en suis procuré une paire, que j’ai testée pendant un voyage. Voici mon analyse, entre enthousiasme, découvertes et questions en suspens.

Ouverture de la boîte

L’étui très solide et de bonne qualité sert aussi de chargeur pour les lunettes.


🔍 Un marché à surveiller ?

Traditionnellement, la lunetterie mise sur trois piliers : le style, le confort et la vision. Mais aujourd’hui, une promesse s’ajoute : l’intelligence augmentée à même notre regard.

  • Ce qui change : la lunette devient un point d’entrée vers l’intelligence artificielle, l’internet ambiant et l’assistance contextuelle, sans écran ni distraction manuelle.
  • Acteurs en présence : Meta, en partenariat avec Ray-Ban, propose un modèle sobre et élégant, mais bourré de technologie. D’autres géants comme Samsung, Google et Apple mijotent aussi leur propre réponse. Ce n’est qu’une question de temps.
  • Usage potentiel : fini le téléphone à la main. On se fait lire nos messages, on donne des commandes vocales, on documente nos expériences de façon fluide.

🕶️ Apprendre du passé : Google Glass, Snap Spectacles… et maintenant ?

Avant les lunettes Meta AI, d’autres ont tenté d’injecter de l’intelligence dans les montures. On se souvient des Google Glass lancées en 2013 : elles promettaient une réalité augmentée discrète, mais ont vite suscité un tollé éthique (le fameux terme « glasshole » est devenu un mème) à cause de leur apparente capacité à filmer sans avertissement. Trop chères, trop visibles, trop intrusives, elles n’ont jamais vraiment trouvé leur public hors du monde professionnel.

Les Snap Spectacles, quant à elles, ont misé sur le fun et la captation vidéo, avec un style décontracté et un usage orienté vers les réseaux sociaux. Leur potentiel était intéressant, mais elles sont restées confinées à un public jeune et niché, sans réel impact à grande échelle.

🧠 Ce qu’on a appris :

  • Le public veut des lunettes discrètes, qui ressemblent à des lunettes.
  • L’éthique de la captation doit être prise au sérieux dès la conception.
  • Les usages doivent être pratiques et tangibles (pas seulement “cool”).

👓 Les lunettes Meta semblent avoir retenu ces leçons :

  • Leur design est signé Ray-Ban, gage d’acceptabilité sociale.
  • Une lumière témoin prévient de l’enregistrement (même si trop discrète selon plusieurs).
  • L’assistant vocal se concentre sur l’utilité immédiate : traduction, lecture de texte, information contextuelle, partage rapide.

Ce retour d’expérience des tentatives passées aide à mieux comprendre pourquoi Meta s’en sort mieux… pour l’instant.


✅ Les pour et les contre – mon expérience personnelle

FonctionMon verdictExemple concret
Assistant vocal intégré👍 Très utileQuestions contextuelles comme « Que signifie cet écriteau ? » (en espagnol), ou « Combien vaut 23 euros en dollars canadiens ? »
Caméra intégrée👍 Très utileCaptation spontanée de scènes de voyage, vidéos POV immersives
Design✅ DiscretL’apparence est indiscernable d’une lunette Ray-Ban classique
Autonomie👎 À améliorer4 h d’utilisation continue, mais recharge rapide via l’étui-chargeur (jusqu’à 5 fois)
Interaction en français🔄 LimitéeL’anglais est mieux pris en charge ; certaines fonctions ne sont pas disponibles ou non documentées en français

📸 Qualité d’image : une bonne surprise… au format vertical

Les lunettes Meta AI offrent une qualité d’image franchement impressionnante pour un si petit dispositif. Avec une résolution de 12 mégapixels, elles peuvent sans problème remplacer l’appareil photo de votre téléphone pour la majorité des usages courants. Les couleurs sont parfois un peu saturées, ce qui donne un rendu flatteur, bien que légèrement artificiel, parfait pour les partages rapides sur les réseaux sociaux.

Le seul bémol : les photos sont automatiquement capturées en format vertical. C’est pratique pour Instagram ou les stories, mais un peu contraignant si l’on souhaite un cadrage plus classique. Les images sont transférées sur le téléphone via l’application Meta AI, et effacées automatiquement de la lunette une fois la synchronisation terminée. Un espace de stockage interne de 32 Go permet tout de même de conserver plusieurs centaines de photos avant de devoir transférer.

🎥 Vidéo : captation fluide… et réseaux sociaux intégrés

Les lunettes permettent d’enregistrer des vidéos d’une durée maximale de 3 minutes, toujours en format vertical. La qualité d’image et de son est remarquable, surtout considérant la taille du dispositif. Que ce soit pour documenter une scène spontanée, une promenade ou une démonstration pratique, l’enregistrement se fait de manière fluide, sans avoir à sortir son téléphone.

Un atout intéressant : il est possible de diffuser en direct sur Instagram Live, directement à partir des lunettes, pour un effet de type point de vue immersif particulièrement engageant. Voici un exemple de ma visite au « plus beau McDo du monde » selon certains.

💵 Informations générales sur l’achat des lunettes Meta AI (printemps 2025)

  • Prix : environ $350 à $450 CAD (selon le modèle) cela inclut la monture, les verres standards (pas correcteurs) et l’étui-chargeur. Des versions avec verres correcteurs sont disponibles, mais nécessitent un ajustement supplémentaire chez un opticien partenaire.
  • Compatibilité : fonctionne avec un téléphone iOS ou Android, mais nécessite de passer par l’application Meta AI (gratuite).
  • Connexion requise : une connexion Wi-Fi ou un partage de données cellulaires est nécessaire pour activer l’IA (ex. pour poser des questions, utiliser Be My Eyes, ou partager une photo).
  • Langues supportées : l’anglais est priorisé dans toutes les fonctionnalités ; le français est partiellement disponible, mais certaines commandes vocales ou services (comme la description d’image IA) ne sont pas encore traduits.
  • Abonnement ? Pas de frais mensuels pour l’instant. Toutefois, certaines fonctionnalités avancées pourraient évoluer vers un modèle freemium à l’avenir. Meta n’a pas exclu cette possibilité.

🔌 Note personnelle : l’autonomie reste limitée (environ 4 h d’usage actif), mais le boîtier permet plusieurs recharges rapides dans la journée.


🕵️‍♀️ Et l’éthique là-dedans ? Une caméra toujours en veille ?

La question revient souvent : « Est-ce que tu m’enregistres là ? »

Même si une petite lumière blanche s’active lors de la captation, elle est parfois trop discrète. Ce flou peut créer un malaise, voire une perte de confiance dans des interactions spontanées.

  • Proximité sociale : porter une caméra sur le nez dans un café ou une réunion informelle crée un doute constant.
  • Surveillance douce : sommes-nous déjà constamment filmé·e·s (caméras de sécurité, téléphones) ? Ces lunettes s’insèrent dans cette zone grise.
  • Transparence technologique : Meta n’a pas la réputation la plus irréprochable en matière de protection des données. Qui voit quoi ? Où sont stockées les vidéos ? Ces questions doivent être posées.
  • Collecte de données et consentement : Selon The Verge, Meta a récemment mis à jour la politique de confidentialité de ses lunettes Ray-Ban Meta, rendant active par défaut l’utilisation de l’IA avec caméra, sauf si l’utilisateur désactive la commande vocale « Hey Meta ». De plus, l’option de refus du stockage cloud des enregistrements vocaux a été supprimée, bien que les utilisateurs puissent toujours supprimer manuellement les enregistrements audio via les paramètres.

🎯 Réflexion : Comment encadrer socialement l’usage de lunettes intelligentes ? Avons-nous besoin de règles claires, de signaux plus visibles, de zones sans captation ?


🌍 Vers quelles applications futures ?

🤝 Be My Eyes : une fonctionnalité d’inclusion inspirante

Une des options les plus touchantes est l’intégration de Be My Eyes. Ce service relie les personnes aveugles à des bénévoles voyants à distance, ou à une IA, pour les aider à interpréter leur environnement.

Avec les lunettes, l’expérience est encore plus fluide : la personne porteuse peut simplement regarder autour d’elle et obtenir des réponses via un humain ou une IA visuelle. C’est une magnifique démonstration de technologie au service de l’inclusion.


👩‍💻 Dans le travail

  • Prise de notes audio ou visuelle en mobilité.
  • Traduction automatique d’une langue étrangère (fonction encore en bêta).
  • Téléassistance : un·e expert·e voit ce que je vois et me guide à distance.

🎓 Dans l’éducation

  • Ajout de commentaires sonores immersifs à une présentation ou visite guidée.
  • Coaching discret : rappels de consignes ou rétroactions.
  • Documentation rapide d’exemples visuels, photos de notes, démonstrations pratiques.

🧑‍🏫 Scénario d’usage en formation : une journée avec les lunettes Meta AI

Contexte : Sophie, formatrice en soins de santé dans un hôpital, anime une session de formation pratique avec des apprenant·e·s en simulation médicale.

🕘 9h – Mise en place

En installant le matériel de simulation, Sophie active ses lunettes et leur demande :
🗣️ « Quelle est la procédure pour insérer une voie veineuse périphérique ? »
Les lunettes lui lisent les grandes étapes, juste pour rafraîchir sa mémoire avant de former les autres.

🕙 10h – Démonstration pratique

Pendant la simulation, Sophie filme ce qu’elle voit via les lunettes, sans tenir de caméra. Elle commente en direct :
🎥 « Je place le garrot ici, je vérifie le reflux sanguin… »
Ces vidéos sont ensuite utilisées pour donner du feedback ou comme matériel de référence.

🕛 12h – Pause et documentation

Pendant la pause dîner, elle photographie les notes prises au tableau blanc par les apprenant·e·s. Elle peut ensuite générer un court résumé avec l’IA.

🕒 15h – Appel avec un collègue

En après-midi, elle accompagne un collègue dans une procédure technique inhabituelle. Grâce à la fonction de guidage à distance, un expert voit ce qu’elle voit et la conseille oralement en temps réel, via les haut-parleurs intégrés.


🧠 Ce que cela montre :

  • Gain de temps et de fluidité
  • Mains libres = interactions naturelles
  • Collecte de traces d’apprentissage en direct
  • Soutien entre collègues à distance

🔚 Une technologie prometteuse… mais encore jeune

Les lunettes Meta AI offrent un fascinant aperçu de l’informatique ambiante. Elles déplacent l’interface : on ne sort plus son téléphone, on interagit avec le monde à travers l’IA.

Mais elles soulèvent aussi des enjeux : vie privée, consentement social, autonomie technologique. Comme toute technologie émergente, elles demandent des ajustements de nos habitudes et des règles d’usage partagées.

Elles ne sont pas encore une révolution universelle… mais elles changent la donne, petit à petit. La question n’est plus de savoir si elles seront adoptées selon moi, mais comment.

Ce que j’aimerais voir dans la prochaine version :
– Lunettes permettant de choisir le service IA (ChatGpt, Gemini, etc.)
– Intégration avec d’autres plateformes (Teams, Google, etc.)
– Projection de texte dans notre champ de vision (notification, heure, rappels, directives de GPS, etc.)
– Meilleure autonomie
– Commandes en français optimisées
– Mode privé ou indicateur d’enregistrement plus visible (ou élément physique qui cache la caméra)


En savoir plus sur Anthony Mak

Abonnez-vous pour recevoir les derniers articles par e-mail.

Laisser un commentaire

Anthony Mak

Designer graphique passionné par l’apprentissage en milieu professionnel, j’explore les idées liées au design et aux technologies éducatives. Mon parcours m’a conduit à fusionner le design graphique et la formation, créant ainsi (je l’espère!) des expériences d’apprentissage engageantes et innovantes. Sur ce blogue, je partage mes réflexions, découvertes et pratiques autour de ces thèmes.

Catégories

On se rejoint ailleurs ?