Passer au contenu

Deepfake audio : un malfaiteur imite la voix d’un PDG grâce à une IA et empoche un pactole

Le CEO d’une firme énergétique britannique a été la cible d’un malfaiteur, qui lui a soutiré 220 000 dollars, en prenant la voix de son supérieur hiérarchique grâce à une technologie à la portée de tous.

Mr Robot.

Un individu a soutiré plus de 200 000 euros au CEO d’une société énergétique britannique, en se faisant passer pour son homologue allemand, rapporte le blog du modérateur, relayant une information du Wall Street Journal. Pour ce faire, il a utilisé un logiciel disponible auprès du grand public. Le directeur général n’y a vu que du feu et n’a pas hésité une seule seconde pour lui faire un virement. Les fonds ont été versés dans la journée vers un compte hongrois, et ont bien sûr, transité dans plusieurs pays, notamment au Mexique. Un genre de phishing 2.0, qui a tout du deepfake audio. On connaissait déjà le Deepfake à travers la vidéo, consistant à réaliser des vidéos factices d’une réalité déconcertante et faire dire tout ce qu’on veut à une personnalité publique. On se souvient par exemple de cette vidéo montée de toute pièce mettant en scène Barrack Obama, dans laquelle il traite le président Donald Trump de “sombre merde”.

Truquer une photo, un enregistrement ou une vidéo n’est pas une pratique nouvelle. Par le passé, avec l’arrivée de Photoshop et consorts, on s’inquiétait déjà de ces problématiques. Nous pouvions déjà maquiller la réalité avec ces outils, à condition bien sûr d’être un roi de la retouche. Ce qui inquiète, c’est surtout la simplicité enfantine avec laquelle sont rendues possibles de telles pratiques avec les technologies actuelles. Jusqu’à présent, bidouiller un enregistrement ou une vidéo demandait un travail titanesque et un certain savoir-faire. Aujourd’hui, les IA sont de plus en plus précises, rapides et performantes. Cela ne vous demande rien de plus qu’un smartphone. Avec des programmes tels que Zao, l’appli chinoise, en tête des téléchargements , le travail est simplifié ; en un tapement de doigt, on peut prendre les traits de John Snow, Kim K, Emmanuel Macron ou toute autre personnalité de son choix. Une startup israélienne plancherait même sur une appli capable de contrefaire des vidéos hyperréalistes en temps réel, a rapporté Europe 1.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

2 commentaires
  1. Tout ceci arrange bien évidemment les menteurs professionnels parmi les élites politiques et il va sans dire que c’est par hasard. Comme chacun sait depuis que Bernanos l’a fait remarquer, le hasard est le dieu des imbéciles. .

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *