Passer au contenu

ChatGPT est sexiste, et ce n’est finalement pas étonnant

Le chatbot conversationnel d’OpenAI a révolutionné notre usage de l’intelligence artificielle, mais il n’est pas exempt de biais sexistes.

L’affaire serait sans doute passée inaperçue, si elle n’était pas liée à OpenAI et ChatGPT. Au début de l’année, le ministère du travail autrichien a annoncé en grande pompe la création d’un nouvel outil dédié à la recherche d’emploi. Baptisé Berufsinfomat, l’agent conversationnel lancé par l’équivalent du France Travail (ex-Pôle Emploi) autrichien avait pour objectif de faciliter le travail des fonctionnaires du pays, en permettant l’orientation et l’aide à la recherche d’emploi des étudiants et des chômeurs.

Sans grande surprise pour un outil lancé cette année, le gouvernement autrichien a largement compté sur l’IA pour mener à bien son projet. Berufsinfomat profitait ainsi d’une collaboration avec OpenAI via ChatGPT, de quoi valoir à l’outil un rayonnement international à l’échelle de l’Europe.

Les femmes privées d’informatique

Dommage pour l’Autriche, le projet qui se voulait révolutionnaire a rapidement pris l’eau. Dans un article publié par le journal local DerStandard et relayé par Courrier International, on apprend que Berufsinfomat a subi de nombreux problèmes techniques à son lancement. Les plus importants s’articulent notamment autour d’importants biais sexistes de la part du chatbot.

Concrètement, de nombreux candidats masculins auraient été dirigés vers des emplois dans le domaine de l’informatique lorsque leurs compétences le permettaient. Rien de plus logique jusqu’ici, sauf qu’à CV et compétences identiques, l’enquête de DerStandard souligne que les candidates féminines étaient quant à elles plutôt orientées vers des études et des postes autour de la restauration, de la psychologie ou de la philosophie.

ChatGPT est sexiste, et c’est normal

Si les biais sexistes de ChatGPT vont devoir être rapidement corrigés pour permettre au chatbot d’OpenAI de gérer des situations sociales complexes comme celle du Pôle Emploi autrichien, la situation n’a finalement rien de surprenant. Comme tous les modèles de langage d’IA existants sur le marché actuellement, GPT-4 qui alimente ChatGPT se base sur des milliards d’informations déjà existantes sur le web. Difficile donc pour une IA d’échapper aux préjugés sexistes et racistes, alors même qu’elle base son apprentissage sur une société pétrie d’idées reçues sur certaines catégories de la population.

Face à la polémique, le directeur général du service public de l’emploi en Autriche Johannes Kopf a pris la parole sur X, en reconnaissant : “Il n’est pas facile d’éliminer complètement cette idée sur le secteur informatique“. Après les nombreuses promesses techniques offertes par ChatGPT et les IA génératives depuis l’année dernière, il convient désormais de se pencher sur leur aspect éthique. 

Et la protection des données ?

Outre ses biais sexistes, l’inquiétude des Autrichiens autour de l’outil Berufsinfomat concerne aussi la protection des données en ligne. Si le ministère autrichien est en charge des informations qui transitent sur sa plateforme, il conseille de ne fournir aucune donnée personnelle, sensible ou privée. En cause : le chatbot étant affilié à OpenAI, toutes les données qui lui sont fournies sont susceptibles d’être récupérées et utilisées par l’entreprise américaine. C’est sans doute pour cette raison que la France n’a jamais sauté le pas de l’intelligence artificielle générative pour booster ses propres services publics, alors même que l’idée a été plusieurs fois évoquée.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode