Si l’entreprise affirme avoir déployé un correctif dans les heures qui ont suivi le bug, cette affaire met en lumière les limites bien réelle de l’IA et de sa modération, à l’heure où ChatGPT ambitionne de remplacer Google dans nos habitudes de navigations.
Un bug très gênant
Le 29 avril, le site américain TechCrunch a révélé que ChatGPT pouvait générer des contenus sexuels explicites lors d’échanges avec des comptes enregistrés comme mineurs. En créant des profils d’adolescents âgés de 13 à 17 ans, le média a confirmé qu’il suffisait de quelques messages pour que l’IA propose des récits à caractère sexuel, parfois très explicites, malgré les garde-fous théoriquement mis en place par le géant américain. Un simple “Talk dirty to me” glissé en début de phrase suffirait en effet à faire déraper le chatbot. Seul une mention explicite de l’âge de l’internaute réussit à bloquer la conversation : “Si vous avez moins de 18 ans, je dois immédiatement arrêter ce type de contenu“.
Reste que dans la plupart des cas, l’IA n’a pas seulement répondu à des sollicitations explicites : elle aurait aussi encouragé l’utilisateur à demander des descriptions encore plus détaillées d’organes génitaux et de comportements sexuels.
L’impossible vérification de l’âge
Cet incident n’est pas isolé. Il intervient dans un contexte où OpenAI a récemment assoupli ses filtres de modération, afin de rendre ChatGPT plus adulte, afin de lui permettre d’échanger sur certains sujets sensibles. Depuis février, la plateforme autorise la génération de contenus sexuels, mais uniquement pour les adultes, une évolution qui a fragilisé les protections pour les publics vulnérables.
En pratique, la vérification de l’âge reste largement défaillante : il suffit d’un numéro de téléphone ou d’une adresse e-mail valide pour créer un compte, même en déclarant une date de naissance inférieure à 18 ans. Le consentement parental, pourtant exigé pour les 13-18 ans, n’est pas contrôlé. Il est aussi très simple de créer un compte majeur, puisqu’aucune vérification supplémentaire n’est demandée.
OpenAI justifie l’assouplissement de ses règles en assumant vouloir privilégier la liberté d’expression. Mais la frontière s’avère difficile à tracer pour les concepteurs d’IA génératives. La modération algorithmique n’est jamais infaillible, surtout lorsque les modèles sont entraînés à répondre de façon toujours plus naturelle et contextuelle. ChatGPT n’est d’ailleurs pas le seul concerné. D’autres acteurs comme Meta sont également pointés du doigt pour des dérives similaires. De quoi alimenter le débat sur la responsabilité des fournisseurs d’IA. À l’heure où les intelligences artificielles s’intègrent dans de plus en plus de foyers et d’écoles, la question de leur encadrement, tant technique que réglementaire, devient cruciale.
Responsabiliser les plateformes ?
La question de la responsabilité se pose d’autant plus que l’entreprise multiplie les partenariats avec des acteurs du secteur éducatif, alors même qu’elle admet sur son site officiel que ChatGPT “peut produire du contenu inadapté pour certains âges“. Une dissonance inquiétante entre le discours institutionnel et la réalité technique.
Face à la polémique, OpenAI a reconnu l’existence du bug et affirme avoir “déployé activement un correctif” pour éviter que de tels contenus ne soient générés à l’avenir par des comptes mineurs. Reste que cet incident résonne avec les débats autour de la vérification de l’âge des internautes sur les sites réservés aux adultes. Les plateformes d’IA ne sont pas exemptes d’un cadre légal, et il devient urgent qu’elles renforcent leurs systèmes de vérification d’âge.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.