Passer au contenu

L’IA va-t-elle remplacer les acteurs porno ?

Des corps générés à la demande, des visages volés, des fantasmes sans limites ni consentement. Ce que l’IA fait à l’industrie pornographique dit quelque chose de fondamentalement dérangeant sur ce qu’on autorise à désirer, à commercialiser, et à laisser sans cadre.

Il y a eu Anne Kerdi, influenceuse virtuelle bretonne qui vante les charmes du Finistère sans jamais avoir mis un pied sur une plage. Puis Lil Miquela, créée en 2016 par une start-up californienne, qui collabore avec Prada, Calvin Klein et BMW pour des cachets à cinq chiffres par placement de produit.

En 2025, le marché des influenceurs virtuels pesait 7,97 milliards de dollars selon Fundamental Business Insights. En 2035, il devrait dépasser les 224 milliards. Disponibles 24h/24, ces modèles plus vrais que nature qui n’existent pas, ne mangent pas, ne dorment pas, ne risquent pas le burn-out, et peuvent faire littéralement tout ce que le public et les marques demandent. Bonus non négligeable, ils ne réclament aucun salaire.

 

Voir cette publication sur Instagram

 

Une publication partagée par Anne Kerdi (@annekerdi)

Les créateurs et créatrices générés par intelligence artificielle ne sont pas nouveaux. L’influence IA est un modèle économique mainstream, déjà normalisé dans la mode et le tourisme. Il était inévitable qu’il trouve de nouveaux usages, particulièrement autour de l’industrie pornographique. La différence fondamentale, c’est que la création de contenu pour adultes n’implique pas les mêmes enjeux.

Sur OnlyFans, des profils IA cartonnent, et tout le monde s’en fout

Sur Pornhub, du contenu généré par IA s’affiche en page d’accueil. Sur OnlyFans, des profils entièrement fabriqués tournent pendant des semaines avant d’être détectés, malgré des conditions d’utilisation encore peu favorables aux influenceurs virtuels. Si la plateforme n’a pas souhaité répondre à nos questions, elle précise que ses Conditions Générales d’Utilisation sont claires en matière d’IA : tout contenu généré ou modifié doit faire apparaître le créateur vérifié et être clairement identifié comme tel, notamment via le hashtag #AI.

Pour Noochka, créatrice de contenu et militante des droits des travailleuses du sexe, les mastodonte du secteur sont « dans le déni ». Les profils illicites reviennent dès qu’ils sont supprimés, et la modération n’a structurellement aucun moyen de suivre la cadence d’une production qui ne connaît pas de limite. Un déni pourtant savamment maîtrisé : ce type de contenu est de plus en plus populaire, et les 85 sites de deepfake pornographiques les plus suivis du monde génèreraient à eux seuls plus de 36 millions de dollars à l’année, pour 18,5 millions de visites mensuelles, indique le site spécialisé Indicator. La question n’est plus de savoir si l’IA a investi l’industrie pornographique. La vraie question est ce qu’elle y fait, et pourquoi ça devrait nous déranger.

Entre objectification et fétichisation

Selon une étude Deeptrace citée devant le Parlement cette année, 96 % des vidéos deepfakes en ligne sont de nature pornographique. 99 % ciblent des femmes. Si l’IA a facilité les choses, l’objectification des corps ne date pas d’hier. La femme objet est une figure récurrente dans la publicité et le cinéma, et les réseaux sociaux n’ont rien inventé. L’IA non plus d’ailleurs : les outils de génération d’image et de deepfakes ne font qu’industrialiser ce qui existait à la marge, en le rendant accessible à tous, et personnalisable à la demande.

C’est justement cette notion de « personnalisation » qui inquiète : quand la sexualité devient une marchandise consommable à la carte, la fétichisation algorithmique des corps marginalisés n’est jamais loin. En marge des modèles IA qui répondent aux critères de beauté attendus par la société, de plus en plus de comptes mettent en scène des femmes atteintes d’un handicap ou d’une particularité physique. « Je suis pas du genre à kink shamer, chacun son truc tant qu’on reste dans le consentement. Mais imposer cette image de la fétichisation à des personnes atteintes de handicap qui déjà la subissent tout le temps, c’est pas OK du tout », tranche Noochka. « Si un jour une créatrice atteinte de handicap a envie de monétiser ça, de fétichiser son handicap pour avoir l’argent dessus, il y a pas de problème, mais c’est elle qui choisit de le faire ».

 

Voir cette publication sur Instagram

 

Une publication partagée par Trisha🖤🤍 (@ms.blacknwhite)

Deepfake : l’IA n’invente rien

Pour comprendre ce qui se joue sur les plateformes adultes, il faut comprendre que les systèmes d’IA générative ne créent pas. Ils agrègent. Ils s’alimentent de milliers d’images existantes, de corps et de visages réels, de performances filmées par de vraies personnes, pour produire un composite, qui n’appartient à personne mais exploite tout le monde. « On peut demander à une IA de prendre les fesses d’Abella Danger, les seins de Mia Khalifa et le visage de Belle Delphine pour créer un fantasme sur l’apparence des autres », analyse Jade Vincent, spécialiste de l’industrie pornographique et co-créatrice du podcast N’importe Cul.

Le problème, c’est que toutes les images générées par IA ne se valent pas sur le plan légal. Si les deepfakes où le modèle de base est reconnaissable sont techniquement punissable en France depuis la loi SREN du 21 mai 2024, qui a introduit un délit spécifique pour les hypertrucages pornographiques, la loi ne punit que leur diffusion. De plus, la condamnation est beaucoup plus complexe pour les modèles qui empruntent à plusieurs personnes réelles, sans qu’on puisse vraiment les identifier. Dans ce cas précis, le « vol de physique » devient plus compliqué à prouver, et donc à combattre.

 

Voir cette publication sur Instagram

 

Une publication partagée par Kimochii (@itskimochii)

Humains contre machines : qui gagne ?

Ce que vivent les créatrices de contenu adulte n’est pas une situation inédite. La mécanique est la même que celle dénoncée par les doubleurs français depuis le début de l’année via l’initiative #TouchepasmaVF. La différence fondamentale, c’est que dans le cas du travail du sexe, le tabou persiste, et les revendications restent lettre morte. De là à imaginer que les IA remplaceront bientôt les humains sur OnlyFans et Pornhub ? Pas forcément. Noochka ne se dit pas particulièrement inquiète pour sa carrière, où le sexe n’est que la partie émergée de l’iceberg : « 80 % du temps, ce que les abonnés recherchent vraiment, c’est discuter ».

C’est sur le plan moral que les créateurs et les créatrices de contenu ont le plus gros rôle à jouer. Face à une intelligence artificielle qui peine à contredire son interlocuteur (surtout s’il a payé), un humain peut jouer les pédagogues, et mettre fin à un échange qu’il estime problématique. « En tant que vraies personnes qui existent, on peut replacer moralement nos clients », indique Noochka. « On peut leur dire : t’as payé 8 balles, calme toi. Je reste un être humain avec des sentiments. Je suis pas ta chienne ». Une intelligence artificielle se contentera d’indiquer que la demande est « contraire aux règles de la plateforme », mais elle ne rompra pas le lien commercial, et trouvera le moyen de satisfaire un client, peu importe ses demandes. Ce glissement vers une pornographie sans refus possible, sans friction morale, ni remise en question, est peut-être l’une des dérives les plus concrètes du phénomène. Une machine qui valide, même tacitement, les fantasmes illégaux ou problématiques contribue à les normaliser.

L’AI Act a oublié le porno

Le règlement européen sur l’intelligence artificielle entré en vigueur le 1er août 2024, est souvent présenté comme la réponse réglementaire de référence, puisqu’il impose des obligations de transparence sur les contenus synthétiques et interdit certaines pratiques jugées à haut risque. Le problème, c’est que la pornographie ne figure pas parmi ces usages. Le secteur adulte a été délibérément écarté de cette catégorie, alors même que c’est là que les dérives sont les plus documentées. Les obligations de marquage et de filigrane des contenus IA ont notamment été repoussées à novembre 2026, au plus tôt.

En France, la loi SREN a posé des jalons. L’ARCOM dispose de pouvoirs d’injonction de retrait, et de sanctions pouvant atteindre 4 % du chiffre d’affaires mondial des plateformes. Dans la pratique, les acteurs et les actrices victimes de deepfakes n’ont pas d’autre choix que de faire eux-même une demande de suppression de contenu « ce qui s’avère laborieux et chronophage tant la création par IA est infinie », analyse Jade Vincent.

De son côté, Noochka reste optimiste : « Peut-être que ça fera un tri : nous, vraies créatrices, on aura les personnes qui sont là pour nous soutenir, qui seront plus respectueuses. Tous les connards iront voir les IA ». En attendant la solution la plus simple reste l’éducation dès le plus jeune âge estime la créatrice : « La restriction a démontré déjà bien assez rapidement que ça ne mène à rien, à part encore plus de désinformation et de traumatisme au final ».

🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Mode