Passer au contenu

[MàJ] Après Pornhub, Reddit bannit les deepfakes, ces faux pornos réalisés par intelligence artificielle

Un utilisateur de Reddit partageait ses vidéos pornos swappées avec des visages de célébrités, avant qu’une âme charitable ne développe une application grand public pour réaliser ses propres vidéos, entraînant une explosion de faux pornos sur la toile.

 

Mise à jour : 

Libertaire parmi les libertaires, la plateforme Reddit vient d’opérer un virage à 360° après avoir hébergé pendant deux mois de fausses vidéos pornographiques de célébrités réalisées grâce à une intelligence artificielle.

Berceau des deepfakes, Reddit a en effet fermé les différents subreddit sur lesquels les utilisateurs partageaient et commentaient ces vidéos .

Celui créé par deepfakes, qui a inspiré un redditeur pour créer l’application FakeApp, comptait encore 15 000 abonnés à la fin du mois de janvier. 

L’un des fils de discussions les plus importants comprenait pas moins de 90 000 membres, désormais orphelins (#ouinouin). Dans un message publié sur le forum, Reddit explique notamment avoir mis à jour sa politique relative à la « pornographie involontaire », faisant ainsi écho au « contenu non consensuel » de Pornhub, et au « contenu sexuel ou suggestif impliquant des mineurs ». Rappelons que certaines actrices mises en scène ne sont pas encore, ou à tout juste majeurs, comme Sophie Turner et Maisie Williams de la série phénomène Game of Thrones.

Reddit interdit la diffusion d’images ou de vidéos montrant n’importe quelle personne nue ou engagée dans un acte sexuel apparemment conçues et diffusées sans leur permission, y compris des représentations qui ont été manipulées. 

Article d’origine :

À l’instar d’autres sites comme Gfycat ou Discord, Pornhub va supprimer les deepfakes – des vidéos créées par IA qui placent des visages, souvent connus, sur des acteurs pornos – de sa plateforme pour violation de ses règles d’utilisation.

« Nous ne tolérons aucun contenu non consensuel sur le site et nous supprimons ce type de contenu dès que nous en avons connaissance », explique la compagnie à Motherboard. Le site américain est le premier  à avoir évoqué le phénomène grandissant du deepfakes l’année dernière.

Haro sur le deepfake…

Pornhub précise que le « porno non consensuel » comprend « le revenge porn, le deepfakes ou toute publication sans le consentement ou la permission d’une personne ».

Bon, soyons réalistes, malgré la bonne volonté de ces plateformes, le phénomène ne va pas s’arrêter net, des dizaines de vidéos de fausses célébrités sont encore disponibles sur Pornhub en tapant « deepfakes » dans la barre de recherche de Pornhub, avec Natalie Portman, Emma Watson, Scarlett Johansson ou Sophie Turner en vedettes.

… ou presque

À l’image d’autres plateformes lorsqu’il s’agit de modération, Pornhub semble attendre que l’utilisateur signale le contenu incrimé avant de passer à l’action. On peut donc douter de l’effectivité d’une telle mesure puisque les utilisateurs eux-mêmes semblent très friands de ce type de contenu…

C’est en décembre dernier que Motherboard repère un redditeur se faisant appeler « deepfake ». Celui-ci partage joyeusement son passe-temps sur Reddit, à savoir face swapper des visages de célébrités dans des vidéos pornos. Certaines vidéos véritablement convaincantes – avec Gal Gadot, Maisie Wiliams ou encore Taylor Swift – n’ont nécessité qu’un algorithme d’apprentissage (machine learning), son ordinateur et quelques vidéos.

Le phénomène prend de l’ampleur, mais atteint son apogée lorsqu’un autre Redditeur se faisant appeler « deepfakeapp » créé une application simple d’utilisation baptisée FakeApp. Les vidéos pullulent sur la toile sans qu’il soit véritablement possible de le contrer puisque cette pratique bénéficie d’un flou juridique similaire à celui du revenge porn lors de son apparition.

La technique en revanche n’est pas nouvelle puisque Hollywood l’a démocratisée il y a bien longtemps pour ses propres besoins, notamment lorsqu’il s’agit d’effectuer des reconstitutions numériques d’acteurs, comme celui de Carrie Fisher dans Rogue One.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

12 commentaires
  1. Je me demande si je ne vais pas tester l’outil pour ****** ma tronche à la place de celle du héros dans un film d’action 🤔 🤔 ……….!!!

  2. 😘 😘 😘 😘 😘 😘 😘 😘 😘 😘 😝 😝 😝 😝 😝 😝 😝 😎 😎 😎 😎 😎 😎

  3. Ahah autour de reddit !
    Heureusement que j’ai eu la présence d’esprit de télécharger la dernière version ainsi que le tutoriel qui va avec 😉

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *