Passer au contenu

Un escroc monte une arnaque aux cryptos avec un deepfake d’Elon Musk

Il va falloir faire bien plus convaincant que cela pour berner tout Internet… mais l’IA progresse à grande vitesse et ce n’est peut-être qu’une question de temps.

Pour l’instant, les deepfakes n’ont pas encore provoqué l’apocalypse de désinformation que certains observateurs ont anticipée quand cette technologie a explosé. Mais certains arnaqueurs technophiles continuent d’essayer d’entourlouper des internautes avec des traquenards de ce type; récemment, ce sont les amateurs de cryptomonnaie qui ont été visés par un deepfake assez élaboré d’Elon Musk.

Pour rappel, un deepfake est un média comme un enregistrement audio, une image ou une vidéo qui a été détourné par des techniques basées sur l’intelligence artificielle afin de remplacer une partie de son contenu. L’exemple le plus populaire consiste à remplacer des caractéristiques comme l’apparence physique ou la voix d’une personne dans une vidéo.

Cette technologie peut être assez divertissante lorsqu’elle est utilisée dans certaines limites éthiques. On peut par exemple citer ce deepfake mémorable d’Emmanuel Macron réalisé par le vidéaste French Faker sur la base du court métrage “Les dessous du pouvoir” de Maxime Baudin. Il existe aussi des tas d’applications pour smartphone qui permettent de réaliser quelques tours de passe-passe comme remplacer son visage par celui d’une célébrité.

Mais au-delà de ces exemples plutôt bon enfant, ces deepfakes continuent d’inquiéter. Ils sont en effet un vecteur de premier choix pour pratiquer la désinformation à très grande échelle ou maquiller des arnaques extrêmement roublardes. C’est le cas de cette vidéo récemment repérée par Bleeping Computer.

Une arnaque élaborée pour voler des cryptomonnaies

Il s’agit d’un montage réalisé à partir d’extraits d’une conférence TED bien réelle à laquelle Musk a récemment participé. Mais cette vidéo authentique a ensuite été altérée afin de modifier les propos de Musk. Lors de cette allocution dont la version originale est disponible à cette adresse, le milliardaire avait surtout discuté de Tesla, de SpaceX et de Starlink.

Mais ici, il fait longuement l’éloge de BitVex, une plateforme d’échange qu’il aurait prétendument créée. La vidéo affirme que Musk lui-même aurait investi 50 millions de dollars. Il mentionne aussi explicitement d’autres personnalités de renom, comme le PDG du titan des cryptomonnaies Binance. Mais surtout, il est fait mention d’un mécanisme qui permettrait à n’importe qui de générer des revenus phénoménaux (environ 30% !) en y déménageant son portefeuille de crypto.

Rappel : cette vidéo présentée à titre informatif est un deepfake et les éléments qui y sont présentés sont une tentative d’arnaque !

Trop beau pour être vrai ? Dans le mille. Le site spécialisé Bleeping Computer a fouillé le code source du site et a confirmé qu’il ne s’agissait que d’une façade. L’objectif premier était simplement de délester des internautes naïfs de leur portefeuille en utilisant Elon Musk comme rabatteur malgré lui.

Il faut reconnaître que les arnaqueurs ont déployé de sacrés efforts. La voix de Musk est relativement bien imitée; il s’agit d’un modèle vraisemblablement entraîné à partir de vraies déclarations de l’intéressé. Le trucage visuel est aussi suffisamment crédible pour tromper un observateur qui regarderait du coin de l’oeil.

Plusieurs indices immédiatement identifiables

Pourtant, les indices ne manquaient pas dès qu’on regarde de plus près. Dès les premières secondes, il est difficile de ne pas remarquer le montage très maladroit. Il donne un rythme vraiment étrange à la conversation; tous ceux qui ont déjà assisté à une conférence TED et qui connaissent leurs codes de réalisation sentiront immédiatement que quelque chose cloche.

La voix du milliardaire devient également suspecte après quelques minutes. On remarque vite quelques sauts de timbre, grésillements et inflexions abruptes qui trahissent souvent les deepfakes de ce genre. Même chose pour les mouvements suspects aux coins de la mâchoire et à la commissure des lèvres, en plus des quelques artefacts visuels qui apparaissent lors des mouvements de tête brusques.

Et dès qu’on s’intéresse à l’élocution, il n’y a tout simplement plus de place au doute. Tous ceux qui ont déjà entendu parler Musk savent qu’en termes techniques, il n’est pas le plus talentueux des orateurs. Il parle assez lentement, multiplie les pauses, cherche régulièrement ses mots, et a tendance à bégayer légèrement lorsqu’il s’embarque dans une explication dense. A titre de comparaison, voici un extrait de l’interview originale bien plus représentatif de l’élocution d’Elon Musk.

La différence est absolument flagrante. Dans la première vidéo, Musk parle nettement plus vite qu’à l’accoutumée. De plus, on ne distingue pas la moindre hésitation; une fluidité qui ne lui ressemble décidément pas. Il finit aussi ses phrases sur des vocalisations beaucoup plus haut perchées que dans ses autres interviews.

La portée des deepfakes reste limitée… pour le moment.

Heureusement, cette arnaque plutôt maladroite a été rapidement identifiée par la plupart des cibles. Au total, les auteurs n’auraient réussi à dérober que 1700 $ en cryptomonnaies selon Interesting Engineering. Plus de peur que de mal, en somme; et heureusement, c’est souvent le cas pour ces deepfakes assez approximatifs (voir notre article). Mais cette situation doit tout de même rappeler que ces deepfakes peuvent constituer une menace de premier plan dans d’autres contextes.

On se souvient notamment du deepfake du président ukrainien Vlodomyr Zelensky disponible à cette adresse (attention, c’est un trucage !); au début de l’invasion du pays par la Russie, un deepfake dans lequel l’intéressé appelait les combattants ukrainiens à baisser les armes avait circulé. Il s’agissait en fait d’une tentative de déstabilisation orchestrée par des partisans russes. Si la supercherie n’avait pas été identifiée immédiatement, l’invasion russe aurait pu connaître une trajectoire assez différente.

La menace se fait d’autant plus pressante. Aujourd’hui, les meilleurs deepfakes, réalisés par des professionnels plus compétents que ces arnaqueurs maladroits, sont complètement indiscernables pour un humain lambda (voir notre article). Il existe donc un vrai risque de manipulation. C’est encore plus vrai dans des zones politiquement fragiles où la situation est extrêmement instable; dans ce contexte, un deepfake bien placé peut facilement mettre le feu aux poudres avant d’avoir été débunké.

Plus que jamais, il convient donc de rester particulièrement vigilant aux enregistrements qui circulent sur Internet. En particulier lorsqu’ils ne proviennent pas d’une source officielle. Car cette technologie n’en est encore qu’à ses débuts; or nous arrivons aujourd’hui dans une phase où la recherche en IA progresse à une vitesse phénoménale. Ce n’est vraisemblablement qu’une question de temps avant qu’un deepfake vraiment problématique jette un immense pavé dans la mare… autant dire qu’il est plus important que jamais de mobiliser son esprit critique en permanence.

 

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode