Alors que la génération de contenu par intelligence artificielle progresse toujours plus rapidement, créer des vidéos compromettantes et potentiellement dangereuses sera bientôt à la portée de tous. Afin de lutter contre ces éventuelles dérives, YouTube lance officiellement son nouvel outil de détection des deepfakes auprès de créateurs sélectionnés, qui pourront désormais être alertés lorsque leur image ou leur voix est utilisée sans leur consentement.
Cette fonctionnalité intitulée “Likeness Detection” (détection de ressemblance, NDLR) a déjà été testée pendant un an auprès de la Creative Artists Agency et devrait être déployée à l’ensemble des membres monétisés du Programme Partenaire YouTube d’ici janvier 2026. Il s’agit d’une étape importante dans la lutte contre les contenus générés par IA mais le fonctionnement du programme et le public visé ne permet de s’attaquer qu’à une infime partie d’un problème bien plus vaste.
Protéger les personnalités publiques et éviter les fake news
Le fonctionnement de cet outil nécessite d’établir un accord avec les créateurs souhaitant y avoir recours. Les vidéastes devront impérativement procéder à une identification biométrique afin que la détection des deepfakes, elle aussi basée sur l’IA, puisse fonctionner correctement. Pour cela, il leur suffira de transmettre une copie de leur pièce d’identité et d’enregistrer un selfie vidéo, de quoi permettre à l’IA de YouTube d’analyser les empreintes visuelles et sonores de chaque créateur pour les repérer dans les vidéos d’autrui.
En cas de vidéo suspecte uploadée sur la plateforme, les créateurs en seront informés et pourront retrouver les contenus en question dans un nouvel onglet “Content Detection” accessible directement depuis leur interface YouTube Studio. Afin de pouvoir réagir rapidement et en conséquence, l’outil proposera trois options aux créateurs : signaler le contenu, demander son retrait pour violation de la vie privée ou déposer une réclamation complète pour violation de droits d’auteur. L’auteur incriminé disposera quant à lui d’un court délai pour modifier ou supprimer son contenu avant intervention des équipes de YouTube.
Cette technologie promet d’apporter un filet de sécurité plus que nécessaire aux personnalités publiques, plus à même d’être victime de deepfake compromettant. Cela permettra également d’éviter la propagation de fake news et ainsi endiguer la propagation d’informations potentiellement dangereuse. Toutefois, quid du reste de la population qui pourra être intégrée dans de fausses vidéos sans être protégée ?
Un pansement sur une hémorragie
Si cette mesure constitue indéniablement un premier pas, elle illustre surtout le retard dramatique de la régulation face à l’évolution fulgurante de l’IA générative. Les outils de création de deepfakes deviennent chaque jour plus accessibles et convaincants, tandis que les réponses institutionnelles peinent à suivre le rythme. YouTube tente de colmater une brèche qui s’élargit constamment, mais sans cadre législatif global et sans protection universelle, cette approche réactive et réservée à une poignée d’utilisateurs pourrait rapidement montrer ses limites.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.