Grâce à cette IA, tout le monde peut figurer dans un film porno

Sur le web

Par Elodie le

Comment une banale application de face-swapping a entraîné une explosion de faux films pornos de célébrités. Pour le meilleur ? Disons plutôt pour le pire.

Dans Brooklyn Nine Nine, Jake Peralta se plait à taquiner sa collègue Amy Santiago en détournant ses phrases alambiquées par un « Le nom de ta sextape ». Avec un simple algorithme d’apprentissage automatique, vous pourrez bientôt avoir la votre ou tiens, pourquoi pas celle de votre star préférée, quand bien même elle n’en aurait jamais réalisé (n’est pas Kim K qui veut).

C’est en décembre dernier que Motherboard repère ce redditeur se faisant appeler « deepfake ». Celui-ci partage joyeusement son passe-temps sur Reddit, à savoir face swapper des visages de célébrités dans des vidéos pornos. Certaines vidéos véritablement convaincantes – avec Gal Gadot, Maisie Wiliams ou encore Taylor Swift – n’ont nécessité qu’un algorithme d’apprentissage (machine learning), son ordinateur et quelques vidéos. Pour nourrir l’IA, il suffit d’une dizaine de photos, de quelques vidéos et l’algorithme se charge du reste, c’est-à-dire, créer un masque convaincant à échanger avec n’importe quel autre visage.

Un outil (trop) simple d’utilisation

Et ce qui devait arriver arriva : les utilisateurs en ont profité pour placer le visage d’actrices célèbres sur celui de star du porno. Deux mois plus tard, c’est l’épidémie : les fausses vidéos pornos de célébrités ont germé sur la toile et avec elle les applications permettant de les réaliser en un rien de temps. Si Deepfake assurait qu’il n’était pas donné à tout le monde de réaliser des vidéos dignes de ce nom, une âme charitable a créé une application pour les noob en informatique, très simple d’utilisation, FakeApp. son créateur, Deepfakeapp, s’est même fendu d’un tutoriel dans lequel il accompagne les futurs Fakeappers pas à pas.

Deepfakes quant à lui a créé un subreddit (NSFW cela va s’en dire) sur lequel se retrouvent déjà plus de 15 000 abonnés. Deepfakes est même devenu le terme consacré pour nommer ces vidéos swapées par intelligence artificielle.

Fake celeb porno everywhere

L’application FakeApp repose d’ailleurs sur l’algorithme original de Deepfakes, mais avec quelques améliorations maison. « Cette application est destinée à permettre aux utilisateurs d’alimenter le pipeline de création des deepfakes – créer des données d’entrainement, des modèles d’entrainement, et créer des fake avec ces modèles – sans avoir besoin d’installer Python et autres logiciels », explique son créateur. Le tuto est désormais épinglé en tête du subreddit. La boucle est bouclée !

Mais Deepfakeapp n’entend pas en rester là, « l’application dans sa version actuelle est un bon début, mais j’espère la simplifier dans les jours et semaines à venir », explique-t-il.

Aux frontières du réel

Doit-on s’en inquiéter ? Depuis deux mois, les vidéos pullulent, certaines sont plus réussies que d’autres, Sophie Turner, Daisy Riley, Kristen Bell en ont fait les frais. Toutefois la technique n’est pas nouvelle, Hollywood l’a éprouvé à de maintes reprises, notamment avec Carrie Fisher dans Rogue One. D’ailleurs, un utilisateur de Reddit a entrepris de faire de même avec Fake Apps et le résultat est plutôt probant.

Les implications d’une telle innovation sont difficiles à percevoir, au-delà des effets pour les célébrités déjà bien habituées aux détournements et autres hoax et des velléités de revenge porn. La frontière entre le réel et le faux sera de plus en plus floue et difficile à percevoir à mesure que la technologie se perfectionnera.

Mettez cette technologie au service des fake news et vous pouvez ne serait-ce qu’entrevoir une ébauche que ce que la société de l’information et la société en général pourraient devenir, avec toutes les conséquences sur la politique, la justice, les médias, etc.

Parlons en à Charlie Brooker, tiens…

Source: Source

28 Commentaires

  1. Like_a_sir

    25 janvier 2018 at 17:01

    ça craint grave.
    Dans un futur proche, on ne pourra plus croire les vidéos. Tout sera taxé de fake news.
    ça craint, genre, vraiment grave.

    • Juloni

      25 janvier 2018 at 17:10

      Il y aura peut être un système de “certificat d’authenticité” pour les vidéos… mais je partage ton inquiétude.

    • Mr Trex

      26 janvier 2018 at 7:24

      Si çà aide l’humanité à se défier un peu plus de ce qui est “numérique” çà ne sera pas plus mal

      Par contre, ce serait aussi sympa de placer une actrice porno dans un vrai film

  2. kaoss

    25 janvier 2018 at 17:33

    Et si on a des photos et vidéos d’une lambda ca peut le faire aussi je suppose.
    A tester.

  3. sarigolepas

    25 janvier 2018 at 17:44

    Plus qu’à combiner avec ça: https://www.youtube.com/watch?v=Vo_FALeUc8c&t=147s et tu peux faire absolument tout ce que tu veux si tu connais la corpulence et les éventuelles taches de naissance/tatouages de la personne.

  4. wakkai

    25 janvier 2018 at 18:00

    @RageX : Tu peux m’envoyer quelques photos de toi ? J’suis tombé amoureux et j’ai des besoins maintenant <3

    • RageX

      25 janvier 2018 at 18:23

      soit pas traumatisé mec…
      arrête juste de dire de la merde j’éviterai de te démonter.
      aller, ++ le troll je te souhaite une bonne branlette! 😉

      • wakkai

        25 janvier 2018 at 18:44

        ++ Pendant ce temps-là, n’hésite pas à préparer tes prochaines interventions !
        Parce que j’attends avec impatience ton premier commentaire sensé et objectif ! Ça sera un peu notre premier enfant quoi !

  5. Thonyz

    25 janvier 2018 at 18:14

    … Entre ça et l’outil de adobe permettant de faire une “édition” de ce que raconte une personne sur une vidéo de sorte à lui faire dire autre chose de façon réaliste… Moi j’vous dis : planquez-vous oubliez les réseaux sociaux ça être rock’n roll !

  6. EchoBoy

    25 janvier 2018 at 21:48

    Punaise c’est Trump qui va être super content

    • lumain

      26 janvier 2018 at 22:46

      …. il va retrouver sa tronche dans des films pornos.

      • heddad

        27 janvier 2018 at 6:40

        Ben c’est déjà fait: une parody porno cirule sur un site porn mettant en scèn e trump avec theresa may(beurk!) -:)

        • lumain

          27 janvier 2018 at 17:56

          LOL
          Ils vont bien ensemble.

  7. Tsss

    26 janvier 2018 at 6:24

    Vous pensez serieusement que ce qui peut etre fait par une bande de petits malins pour zéro budget n’as pas déjà été fait depuis longtemps par l’industrie du cinéma/de l’information qui est une de celles qui brasse le plus d’argent ?

    • kaoss

      26 janvier 2018 at 7:04

      Oui mais là ont te dit que c’est accessible à tout le monde.

  8. Vincent Chalmel

    26 janvier 2018 at 10:28

    C’est vraiment dommage, on a un outil super fun, qui, comme le montre l’exemple de Star Wars, permettra aux créateurs de se faire des fan-films absolument fantastiques ! Et tout ce que vous trouvez à dire dessus (mais je ne vous jette pas la pierre, c’est la bassesse et la médiocrité de la communauté de dégénérés de reddit en premier lieu qui sont responsables) c’est le porn (et les fake news parceque c’est la mode)…

    • Steyr Osk

      26 janvier 2018 at 12:29

      Préfère un bon porno a la gueule de leia dans rogue one perso..

      • Vincent Chalmel

        26 janvier 2018 at 15:05

        Ta maman doit être tellement fière.

        • Steyr Osk

          26 janvier 2018 at 18:29

          Ça va imhotep

    • lumain

      26 janvier 2018 at 22:45

      internet is porn ?

  9. Steyr Osk

    26 janvier 2018 at 11:58

    Elle est quand meme sacrement bonne pour une british la daisy

  10. Emmanuel Bouillon

    26 janvier 2018 at 12:01

    Tant mieux. “La frontière entre le réel et le faux sera de plus en plus floue ” ca rends le réel moins crédible, je trouve.
    Si un jour, la sextape d’une célébrité fuite, elle sera perdue au milieu de tous les fakes…

    Et, je trouve que ça aide à se dire que “on a tous des boobs ou une teub en dessous de nos vêtements”. Le porno désacralise le sexe 😉

  11. Didier Sobud

    26 janvier 2018 at 12:04

    Black Mirror…

  12. Carman

    26 janvier 2018 at 13:32

    la seule bonne nouvelle là dedans, c’est que si une de tes sextapes se retrouve sur le net, tu peux accuser l’application ! :p

    • Nicolas Lamory

      26 janvier 2018 at 17:12

      Damned, quelqu’un a découvert le truc…. Effectivement, cette appli sert juste à “dédouaner” certains scandales qui vont probablement éclater au vu de l’explosion de délation actuelle.

      Voila aussi pourquoi on nous “prépare” gentiment avec les ”fakes” news…

      Comment ça je suis complotiste ?

      Avec toute cette technologie, je pourrais être une mite en pull-over

  13. geek

    26 janvier 2018 at 23:00

    Toutes l’actualité de tech, bitcoin actualité BTC, sécurité actualité,HIGH TECH NEWS,actualité jeux vidéo NOUVEAUTÉS HIGH TECH actualité sur https://www.topvoce.com

  14. ncls_pln

    27 janvier 2018 at 17:26

    J’ai testé hier. Bon sang, ça fonctionne horriblement bien…

  15. GazetteSDF

    29 janvier 2018 at 11:33

    D’un côté, c’est peut être une bénédiction pour les Stars et Autres, en cas de risques de revenge porn ou autres, ces stars n’ont qu’a noyer le net de fake pour que les vrais passe plus facilement à la trappe, quitte à noyer une vrai dans un fake pour qu’elle passe à la trappe …
    Si le vrai est noyé dans le faux, les plus pervers se contenteront du faux et même si le net à son lot de motivés, les vrais sextapes sortiront moins …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *