C’est une faille sécuritaire qui pose sérieusement question dans le développement de l’IA générative chez Meta. La quasi-totalité de ce que vous demandez à Meta AI dans Instagram, Facebook et WhatsApp se retrouve en clair sur un fil accessible de tout le monde sur Internet. En cause, le récent déploiement de l’application Meta AI et du flux Discover, destiné à “partager et explorer la façon dont les autres utilisent l’IA“. Sous ses airs de réseau social, la plateforme IA du géant américain pousse de nombreux utilisateurs à partager involontairement leurs échanges sur un fil public, accessible à tous.
Vos conversations privées ne le sont pas
Par défaut, toutes vos conversations ne sont pas partagées publiquement. Sauf qu’après chaque interaction avec l’IA, la plateforme vous invite à partager votre conversation sur Discover, conduisant à la publication en clair de textes, images, voire d’enregistrements audio, accessibles à tous sur Internet. La gravité du problème tient à la nature des contenus exposés : questions intimes sur l’identité de genre, demandes d’images suggestives, partages de documents médicaux, juridiques ou professionnels, parfois associés à des pseudonymes ou photos de profil permettant d’identifier l’utilisateur. Selon la BBC, au moins une requête partagée en clair aurait permis d’identifier précisément l’identité d’un internaute grâce à sa photo de profil.
Un défaut de design, pas un bug
Meta affiche un avertissement lors du partage, mais celui-ci est souvent ignoré ou mal compris. La mécanique de partage, très proche des usages des réseaux sociaux, ne permet pas toujours de distinguer clairement une publication privée d’une publication publique. Résultat : des centaines de conversations privées se retrouvent exposées, alors que la majorité des utilisateurs pensent interagir en toute “confidentialité” avec un assistant personnel.
La firme affirme que les conversations sont privées par défaut et que l’utilisateur doit explicitement choisir de les rendre publiques. Pourtant, l’ergonomie du service et le manque de pédagogie entraînent une confusion massive, aggravée par le fait que l’activité du chatbot peut être reliée au compte Instagram ou Facebook.
Et en Europe ?
En Europe, la situation est complexe. Si Meta a été contraint de retarder le déploiement complet de Meta AI suite aux exigences des régulateurs sur la protection des données, l’entreprise a tout de même prévu d’exploiter les contenus publics des utilisateurs pour entraîner ses IA, à moins d’une opposition explicite. Les messages privés ne sont pas utilisés pour l’entraînement, sauf s’ils sont partagés avec Meta AI via la fonction dédiée. Mais la frontière entre privé et public reste floue pour de nombreux utilisateurs, d’autant que la procédure pour rendre ses requêtes totalement privées ou s’opposer à l’utilisation de ses données reste complexe à trouver et à activer.
Quelles solutions pour protéger sa vie privée ?
- Vérifier systématiquement les paramètres de confidentialité et éviter de partager des contenus sensibles via Meta AI.
- Ne pas associer son compte Instagram ou Facebook à l’application Meta AI si le profil est public.
- Utiliser les options de suppression ou de privatisation des requêtes dans les paramètres
- Exercer votre droit d’opposition à l’utilisation de ses données pour l’entraînement de l’IA, via les formulaires proposés par Meta en Europe.
Malgré les avertissements, la conception même de Meta AI favorise l’exposition involontaire des données personnelles, posant un risque majeur pour la sécurité des utilisateurs. Tant que la pédagogie et la transparence ne seront pas renforcées, la prudence s’impose : éviter d’utiliser Meta AI pour toute demande sensible ou confidentielle semble être l’option la plus raisonable, et la moins risquée.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.