Passer au contenu

OpenAI met fin à son outil de détection de textes générés par IA

En raison d’un taux de précision insuffisant, OpenAI a décidé de fermer son outil de classification qui permettait de distinguer les textes écrits par des humains de ceux générés par l’IA. Il faut dire que les préoccupations sur l’impact de l’IA dans divers secteurs, notamment l’éducation, sont de plus en plus pressantes. Le créateur de ChatGPT continue de chercher des moyens plus efficaces pour tracer l’origine des textes.

OpenAI a annoncé la clôture prématurée de son outil de classification AI le 20 juillet, invoquant un taux d’exactitude trop bas. La société a reconnu que cet outil n’a jamais été très efficace pour détecter les textes générés par l’IA. Le créateur de ChatGPT avait averti en amont que cet outil pouvait donner des faux positifs, autrement dit des textes écrits par des humains étiquetés comme générés par l’IA. Toutefois, OpenAI avait aussi indiqué que le classificateur pourrait s’améliorer avec plus de données.

OpenAI incapable de respecter sa promesse

La société travaille maintenant à l’intégration des retours d’informations pour rendre les techniques de provenance plus efficaces sur les textes. OpenAI prévoit aussi de « développer et de déployer des mécanismes qui permettent aux utilisateurs de comprendre si le contenu audio ou visuel est généré par l’IA », bien que les détails de ces mécanismes ne soient pas encore connus.

L’arrivée de ChatGPT a provoqué des craintes auprès de nombreux secteurs, notamment autour du texte et de l’art générés par l’IA. Les éducateurs, en particulier, craignent que les élèves ne se reposent sur ChatGPT pour écrire leurs devoirs au lieu de faire les efforts nécessaires à l’assimilation de leur apprentissage. Les écoles de New York ont même un temps interdit l’accès à ChatGPT justement à cause des préoccupations liées à la précision, à la sécurité et à la tricherie.

Le problème de la désinformation par le biais de l’IA est également inquiétant. Des études ont montré que les textes générés par l’IA, des tweets par exemple, pourraient être plus convaincants que ceux écrits par des humains. Jusqu’à présent, les gouvernements n’ont pas trouvé comment contrôler l’IA et laissent aux groupes et organisations le soin d’établir leurs propres règles et de développer leurs propres mesures de protection face à la prolifération des textes générés par ordinateur.

Bien qu’OpenAI a mis fin à son outil de classification actuel, l’entreprise assure de son engagement pour mettre au point un outil de détection des textes générés par l’IA. La société espère partager ses méthodes améliorées à l’avenir, mais dans l’intervalle elle sollicite des retours d’information pour savoir si des outils imparfaits comme celui-ci peuvent être utiles. Il semble que pour le moment, même OpenAI, qui a contribué à déclencher la folie de l’IA générative, n’ait de réponses claires sur la façon de gérer ces défis.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : OpenAI

1 commentaire
  1. C’est pourtant simple, il suffit de créer une base de données dans laquelle chaque IA enregistrera une copie de chaque texte qu’elle aura généré. Toute personne qui voudra vérifier un texte pourra en copier un bout et le lancer en recherche sur cette base de données. Simple et efficace. Le seul soucis c’est le coût de maintenance de la base.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode