Dossier

Deepfake : Est-il possible de détecter ces vidéos truquées ?

Maintenant que la combine avec les battements de paupière est has been.

Publication « Everybody Dance Now », université UC Berkeley

On vous parlait ces dernières semaines de la facilité avec laquelle il est possible de créer des deepfake et des façons dont ils pourraient être utilisés. Maintenant que le problème est posé, intéressons-nous aux solutions : est-il possible de détecter ces vidéos truquées ? La réponse est oui même si l’exercice n’est pas aisé. C’est toujours le jeu du chat et de la souris”, explique Luc Julia, cocréateur de Siri et aujourd’hui vice-président de l’innovation de Samsung (notre interview complète ici). On l’a bien vu avec l’histoire des battements de paupières. Jusqu’il y a peu, les personnes visibles sur un deepfake ne clignaient pas des yeux. On pouvait donc repérer le trucage à ce détail. “Mais maintenant les battements de paupières sont présents également sur ce type de vidéo”, nous explique Vincent Nozick, enseignant chercheur au laboratoire d’informatique Gaspard Monge (LIGM). Les équipes sont donc forcées de s’adapter aux progrès faits dans le domaine.

Traquer les irrégularités

Certains chercheurs étudient désormais les incohérences au niveau des couleurs du visage ou le repérage de warping. Cocréateur d’un de ces outil de détection de deepfake baptisé MesoNet*, Vincent Nozick confie : “Les zones les plus stratégiques avec notre approche sont le nez, les yeux et la bouche de la personne filmée. C’est là que se situe la majorité des irrégularités détectées par notre outil”. Une technique qui marche. MesoNet affiche un taux de réussite de 98%.Il faut cependant l’entraîner continuellement pour que ce taux ne baisse pas car les techniques évoluent en permanence”, précise le chercheur.

Certains équipes ont adopté une approche différente. L’application Amber Authentificate s’appuie elle, par exemple, sur la blockchain pour confirmer qu’une vidéo n’a pas été modifiée. Lorsqu’une personne tourne une séquence, l’appli génère à intervalles réguliers des codes qui permettront a posteriori de confirmer qu’il s’agit de la séquence originale. Auquel cas Aber accolera un cadre vert à la vidéo. A l’inverse, si une partie de la vidéo est modifiée, l’appli pourra le détecter et passera la couleur du cadre en rouge à ce moment-précis (voir les exemples vidéos ici).

Pourquoi se fouler ?

Pas sûr cependant que cela règle une fois pour toutes le problème posé par la circulation de fausses informations. On ne recense pas pour le moment de fake news basées sur ce type de vidéo truquées. Et c’est sans doute en partie lié au fait qu’il est possible de les détecter. Mais le fait que d’autres techniques plus basiques s’avèrent déjà d’une efficacité redoutable n’y est sans doute pas non plus étranger. Comme l’explique très bien Russel Brandom, journaliste à The Verge, des hoax populaires ne reposent parfois sur rien de plus qu’un texte accompagné d’une photo sortie du contexte. La technologie aura donc bien du mal à régler, à elle seule, le problème posé par la diffusion de fausses informations.“Le nerf de la guerre, assure Thomas Roccia, chercheur en sécurité au McAfee Lab, cela reste la sensibilisation : informer sur les techniques utilisées par ces acteurs et sur l’étendue du problème.

Retrouvez ici la série d’articles consacrés aux Deepfake:

*Pour plus de détails sur MesoNet, voir la publication sur Arxiv.org (auteurs: Darius Afchar, Vincent Nozick, Junichi Yamagishi, Isao Echizen)