Passer au contenu

IA : des deepfakes viraux mettent Midjourney dans l’embarras

Le générateur d’images basé sur l’IA a pris l’initiative de mettre fin aux essais gratuits… mais une réaction autrement plus importante semble nécessaire.

Il va désormais falloir payer pour utiliser Midjourney, le célèbre générateur d’images basé sur l’intelligence artificielle. D’après le Washington Post relayé par The Verge, les développeurs ont annoncé la fin des essais gratuits, citant « une demande extraordinairement forte et des abus ».

Cela fait déjà des années que de nombreux spécialistes nous avertissent sur le potentiel dévastateur des IA génératives. En permettant à n’importe qui de générer des trucages plus vrais que nature qui mettent en scène des personnalités célèbres, ils ouvrent la porte à un scénario que certains décrivent comme une « apocalypse de la désinformation » (voir ce papier d’analyse récent).

Malgré la montée en puissance des deepfakes pornographiques, cette perspective était encore relativement abstraite il y a quelques mois. Mais elle vient de devenir beaucoup plus concrète en l’espace de quelques jours sous l’effet des vives tensions politiques qui occupent l’Amérique en ce moment. Comme la France, les États-Unis ne sont plus qu’à un an de leur prochaine élection présidentielle. Et à l’approche de cette échéance, c’est le Donald Trump qui commence à refaire des siennes.

La fausse arrestation de Donal Trump

Pour rappel, le sulfureux milliardaire a été éjecté de la Maison-Blanche en 2020 par Joe Biden au terme d’un feuilleton politique ahurissant, qui a culminé avec la prise d’assaut du Capitole. Après s’être fait discret quelques années, il est revenu sur le devant de la scène en annonçant sa ferme intention de briguer un second mandat.

Le 18 mars dernier, il a encore défrayé la chronique avec un message qui a mis le feu aux poudres. Sur sa plateforme Truth Social, il a annoncé qu’il était sur le point d’être arrêté, suggérant à demi-mots que le pouvoir en place tentait par tous les moyens d’empêcher son retour. Il a aussi appelé ses partisans à « manifester et à récupérer leur pays ».

Des tas de personnalités sont venues jeter de l’huile sur le feu avec des analyses de comptoir. On peut notamment citer la réaction d’Elon Musk, qui a prédit une victoire écrasante de Trump aux élections en cas d’arrestation. La tension était à son paroxysme ; tout le public était sur le qui-vive, prêt à dévorer la moindre bribe d’information à propos de ce nouveau feuilleton politique.

Il s’agit d’un terreau particulièrement fertile pour la désinformation à l’ère de l’IA et des réseaux sociaux. Et forcément, ce qui devait arriver arriva. Quelqu’un s’est servi de Midjourney pour créer des deepfakes de Trump. Sur ces images devenues virales, on voit l’ancien Président seul, aux prises avec une cohorte d’agents de police déterminés à l’interpeller.

Aucune volonté de nuire – et pourtant…

La bonne nouvelle, c’est que l’auteur n’avait aucune intention de duper qui que ce soit. Il ne s’agit d’ailleurs pas d’un troll, mais d’Eliot Higgins, fondateur du groupe de journalisme d’investigation Bellingcat.

Il n’a jamais suggéré que ces clichés pourraient être authentiques, et a précisé explicitement qu’ils avaient été générés. Ces trucages sont certes convaincants au premier coup d’œil, mais pas suffisamment pour duper un observateur avisé. Il suffit de jeter un œil aux badges, aux visages ou aux mains déformées des policiers pour s’en rendre compte.

Et heureusement. Car si ces tweets n’ont heureusement pas déclenché de guerre civile, ils ont tout de même été vus des millions de fois. On peut donc imaginer que la situation aurait pu être très différente si un personnage mal intentionné avait produit ce genre d’images avec la ferme intention de tromper…

C’est typiquement le genre de symbolisme qui aurait pu mettre le feu aux poudres dans ce contexte politique difficile. Si des deepfakes avaient berné des partisans particulièrement échaudés de Trump avant d’être débunkés, ils auraient par exemple pu générer un nouvel épisode comme l’attaque du Capitole. Avec tout ce que cela implique pour la démocratie américaine.

Et même sans aller jusqu’à ce scénario extrême, la présence récurrente de tels deepfakes pourrait tout de même avoir un impact profond. À force d’être exposé à des images fortes et évocatrices de ce genre, quel qu’en soit l’objectif, le public peut se retrouver conditionné sans même s’en rendre compte.

C’est d’autant plus problématique que sur les réseaux sociaux, les utilisateurs scrollent rapidement d’un post à l’autre. Ils partagent du contenu à la volée, sans s’attarder sur les détails. De plus, la faible résolution des aperçus a tendance à masquer les imperfections de ces trucages. L’illusion devient donc encore plus convaincante, comme nous l’avons encore constaté récemment avec la fameuse doudoune du Pape (voir notre article). D’autant plus que la majorité des humains sont désormais incapables faire la différence entre un deepfake et une vraie image.

Les prémices d’une catastrophe sociétale ?

C’est cette réalité assez terrifiante qui a poussé Midjourney à fermer les vannes. Mais ça ne changera probablement pas grand-chose. Cette histoire montre de manière criante qu’entre les chatbots et les générateurs d’image, l’« apocalypse de la désinformation » n’est plus une notion si abstraite, car ces outils sont aujourd’hui nombreux et faciles d’accès. À l’échelle globale, fermer les essais gratuits de Midjourney revient donc à mettre un petit sparadrap sur une plaie ouverte.

La conclusion qui s’impose, c’est qu’il devient urgent de mettre en place des garde-fous réglementaires très stricts. Ne faudrait-il pas ralentir et refermer la boîte de Pandore avant qu’il soit trop tard ? Voire tout démolir pour reconstruire sur des bases plus saines ? Ces questions méritent d’être posées. Car plus le temps passe, plus la situation semble proche d’échapper à tout contrôle.

De nombreux spécialistes sont convaincus que oui. Récemment, 1300 personnalités ont signé une tribune dans ce sens. Elles y demandent explicitement une pause dans le développement de ces technologies. Une façon de laisser le temps à la société et aux régulateurs de se mettre au diapason. Parmi les signataires, on retrouve d’ailleurs… Elon Musk, qui n’a jamais caché son penchant pour l’innovation tous azimuts (voir notre article). Et lorsqu’un forcené de cette catégorie se fait le héraut du principe de précaution… c’est forcément que quelque chose ne tourne pas rond.

Reste à voir comment les géants du secteur, à commencer par Microsoft et OpenAI avec l’incontournable GPT-4, réagiront à cette lettre. Il serait rassurant qu’elles se mettent d’accord avec les gouvernements pour mettre en place un organe de régulation. Mais ce n’est pas gagné, car les enjeux financiers sont colossaux.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

7 commentaires
  1. C’est juste le début, on sera bientôt inondé et totalement débordé sur la toile et plus l’IA sera amélioré et plus il deviendra impossible de faire la différence.

    Quel jolie avenir on nous prépare, mais on vous dit que c’est magnifique le progrès vous avez bien vu avec la création de l’internet qu’on nous dit…

  2. Tout a fait d’accord, le progrès est magnifique, pouvoir générer des images sans talents d’artiste c’est juste une merveilleuse technologie, le soucis n’est pas là ! Le soucis c’est l’Homme. La techno évoluera quoi qu’ont face, le soucis c’est le comportement de l’Homme qui a même tendance à régresser sur certains points.
    Un jolie avenir ? Je suis d’accord, aujourd’hui grâce à la technologie on peut se former sur presque tous les sujets grâce à internet. Les échanges entre les peuples permets de mieux se comprendre, de ne plus se craindre et de s’aimer (seul bémol, on va plus vers une culture mondiale et du coup moins de diversité). Et ne parlons pas de la médecine qui fait de plus en plus de miracles.

    Certes il y a des dérives et les soucis vient pas des outils, mais de ce qu’ont en fait. Un tourne visse peut aussi bien tué qu’un pistolet, tout dépend de ce qu’ont en fait.

  3. @Ely Il faut penser système pour analyser la société. Or, penser que “un outil n’est qu’un outil, tout dépend de ce qu’on en fait”, c’est tout sauf de la pensée système.

    Si tout dépendait des individus, alors il n’y aurait jamais de tendance. On ne verrait pas la consommation d’antidépresseurs doubler en 20 ans, par exemple. Cette consommation serait aléatoire. Mais elle ne l’est pas du tout. Il y a donc des causes en amont des individus qui orientent les choses dans une direction ou une autre.

    Les choses ont aussi une influence sur les humains, comme n’importe quel étudiant en première année de socio, même médiocre, te le dirait. Il en existe même qui te diraient que ce qui façonnent la société, c’est à 100% les choses, et à 0% les humains (par exemple les adeptes de la théorie du fétichisme de la valeur).

    C’est quand même dommage de pouvoir “se former sur presque tous les sujets grâce à internet”, et de se faire avoir par l’effet Dunning-Kruger aussi facilement.

  4. “La première chose qu’un être humain a fait le jour où il a utilisé un caillou pour la première fois, c’est de taper avec sur son voisin. bien longtemps après il a songé a l’utiliser pour en faire sa maison”. L.Whytt

    Comprenne qui pourra.

  5. On a voulu faire pareil avec la naissance des anciennes technologies. Quand au Elon il aurait pris des billes dans openai des le départ on aurait un autre discourt. La plupart des signataires travaillent ou son en contact avec des entreprises a la ramasse dans ‘IA

  6. moi actuellement ce qu’il me dérange le plus c’est de taper un mot dans google pour qu’ensuite il m’affiche des tas de faux sites gérés par une iA, en gros ces sites sont justes des copié/collé d’autres sites ou parfois des traductions approximatives de sites étrangers et sur ces sites bonjour les pubs qui n’ont aucun sens ou des vidéos youtubes qui tournent en boucle, vidéos de tout et vraiment n’importe quoi, genre un clip de rap africain, une main qui dessine, des vidéos tiktok d’une asiastique ou d’une quatarienne.. on sait comment les vues sont augmentées artificiellement.

  7. On peut très facilement mettre fin a la conclusion qui pourrait se généraliser au sujet des “preuves” photo, vidéo ou audio. Il suffirait que tous les sites ou application générative mettent dans une base de données commune et open source une copie (même de ne résiliation) de la totalité du contenu généré par leur site/appli. Résultat: dès qu’on a un doute sur une image, une vidéo, un texte, un son, il suffira de faire une recherche sur la base de donnée, recherche qui pourra facilement être automatisée d’ailleurs. Ça résoudrait aussi du même coup les problèmes de copyright.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode