Passer au contenu

Les lunettes Ray-Ban Meta enverraient vos vidéos intimes à des modérateurs humains

Des sous-traitants basés au Kenya auraient visionné des extraits vidéo captés par les lunettes connectées de Meta, y compris des scènes à caractère sexuel ou privé. Le groupe se défend, mais la polémique enfle.

Les Ray-Ban Meta ont beau être le produit le plus abouti du catalogue de Mark Zuckerberg, elles n’en finissent plus d’alimenter les inquiétudes sur la vie privée. Après les craintes liées à la captation vidéo à l’insu des passants, c’est désormais du côté des utilisateurs eux-mêmes que la polémique enfle. Selon des révélations relayées par The Telegraph, des annotateurs humains travaillant pour un prestataire de Meta, basés au Kenya, auraient eu accès à des extraits vidéo captés par les lunettes connectées du groupe. Et pas n’importe lesquels : parmi les séquences visionnées par ces employés, on trouverait des images de personnes se rendant aux toilettes, en train de se déshabiller, ou filmées pendant des rapports sexuels.

Meta nie, mais pas en bloc

Meta ne nie pas totalement les faits. Le groupe rappelle que ses conditions d’utilisation de Meta AI prévoient explicitement un examen humain de certaines interactions. En clair, lorsqu’on interagit avec l’assistant IA intégré aux lunettes, les données échangées (y compris les flux vidéo) peuvent être consultées par des examinateurs humains dans le cadre de l’amélioration du service. La marque elle-même, conseille d’ailleurs de ne pas partager de données sensibles via ses lunettes.

Concrètement, Meta fabrique un produit capable de filmer ce que voit l’utilisateur, intègre un assistant IA qui encourage l’interaction permanente, puis précise dans les petits caractères qu’il vaut mieux éviter de lui montrer quoi que ce soit de sensible. Dans un communiqué officiel, Meta assure que les données sont d’abord filtrées avant d’être transmises aux sous-traitants.

Un problème structurel

Cette affaire rappelle un schéma bien connu dans la tech : celui de la sous-traitance de la modération. L’industrie de l’IA repose massivement sur ce travail invisible, et les lunettes Meta n’y font pas exception. Le vrai problème est peut-être moins dans l’existence de cette intervention humaine (qui est une pratique courante pour entraîner les modèles d’IA) que dans la nature des données collectées. En Europe, le RGPD offre un socle de protection, mais les zones grises restent nombreuses dès lors qu’on parle de données traitées hors du continent. En France, la CNIL avait déjà alerté sur les risques de traçage indirect liés aux dispositifs connectés, un sujet qui prend ici une dimension très concrète.

🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Mode