Confrontée à des exigences de plus en plus strictes pour contrôler l’accès des mineurs à certains contenus, YouTube doit bien s’adapter. En France comme ailleurs, des lois obligent désormais les géants du numérique à vérifier activement l’âge de leurs utilisateurs, allant jusqu’à exiger le blocage des accès pour les sites qui ne se conforment pas — l’exemple emblématique reste la suspension temporaire des portails du groupe Aylo (Pornhub, YouPorn…) sous la pression du régulateur français. La protection des plus jeunes est, plus que jamais, devenue un sujet brûlant, et après X contraint de rendre des comptes en Europe, la filiale de Google préfère jouer les bons élèves (ou pas).
L’IA comme solution miracle
Face à ces obstacles, YouTube inaugure une nouvelle génération de technologies : plutôt que de demander systématiquement une pièce d’identité ou des informations bancaires à chaque internaute — méthodes jugées trop intrusives et controversées en matière de vie privée — la plateforme de Google explore la voie du profilage comportemental.
Le principe : un algorithme d’apprentissage automatique analyse une multiplicité d’indices extraits de l’activité de l’utilisateur : types de vidéos visionnées, historique des recherches, longévité du compte, ou encore diversité des catégories explorées. En croisant ces signaux, l’IA est censée deviner si un internaute est potentiellement mineur, indépendamment de la date de naissance qu’il a pu renseigner lors de la création de son compte.
Le dispositif, déjà testé à petite échelle aux États-Unis, vise à protéger les plus jeunes en les basculant automatiquement vers un environnement digital adapté : publicité ciblée désactivée, outils de bien-être numérique, filtrage renforcé des contenus problématiques… Le tout de manière automatique, sans intervention humaine. L’utilisateur adulte qui se verrait restreint par erreur aurait toutefois la possibilité de faire appel en transmettant un justificatif d’identité.
… ou pas
Pas besoin de réfléchir très loin sur la question, l’équilibre est précaire entre protection, efficacité et vie privée. Un algorithme mal calibré risque de générer des faux positifs (priver un adulte d’accès à des contenus sans raison valable) ou, plus grave encore, des faux négatifs, en laissant un mineur passer sous les radars.
D’autant plus que si le système imaginé par YouTube se veut plus respectueux de la vie privée, il recueille et interprète une grande quantité de données concernant les habitudes de navigation, posant de nouveaux défis en matière de gestion des données. Bon nombre d’utilisateurs pourraient s’inquiéter de voir leur navigation analysée en profondeur à des fins de contrôle, même pour la bonne cause.
En s’engouffrant dans la brèche de l’IA et du machine learning pour contrôler l’âge de ses utilisateurs, YouTube tente une délicate opération d’équilibriste. Entre impératif de protection des mineurs, crainte d’une privation arbitraire d’accès et enjeux de confidentialité, la plateforme expérimente un modèle amené à faire du bruit, sous l’œil critique des autorités européennes et des défenseurs du numérique.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.