Passer au contenu

Selon plusieurs employés d’Open AI, l’IA pourrait provoquer “l’extinction de l’humanité”

L’idée n’est pas tant de faire interdire l’intelligence artificielle que de réguler un marché encore balbutiant.

La lettre est acide. Si elle ne se veut pas aussi pessimiste que celle signée en mars 2023 par plus d’un millier de personnalités publiques (dont Elon Musk) appelant à l’arrêt des recherches en IA générative, elle dresse un portrait inquiétant des progrès d’Open AI en matière d’intelligence artificielle. Sans doute parce qu’elle émane des rangs mêmes de celles et ceux qui ont forgé l’algorithme de GPT-4o et de ses prédécesseurs.

“Nous croyons au potentiel de la technologie de l’IA”

Dès les premières lignes, le ton est donné. “Nous croyons au potentiel de la technologie de l’IA pour offrir des avantages sans précédent à l’humanité“. Il n’est donc pas question de fustiger les progrès considérables réalisés ces dernières années sur le marché, mais plutôt d’appeler à une régulation nécessaire des “risques sérieux posés par ces technologies“.

“Ces risques vont de l’aggravation des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité. Les entreprises d’IA elles-mêmes ont reconnu ces risques, tout comme les gouvernements du monde entier et d’autres experts en IA”

Pour éviter le pire, la lettre, cosignée par sept anciens employés d’Open AI, et six salariés toujours en poste, restés anonymes, entend miser sur les conseils éclairés de la communauté scientifique, des décideurs politiques et du public. Reste que la pente est déjà glissante. “Les sociétés d’IA n’ont actuellement que de faibles obligations de partager certaines de ces informations avec les gouvernements, et aucune avec la société civile. Nous ne pensons pas qu’on puisse compter sur eux pour le partager volontairement“.

Un contrôle gouvernemental inutile ?

Faute de décision gouvernementale efficace, les employés et anciens employés d’Open AI estiment aujourd’hui faire partie “des rares personnes qui peuvent les tenir responsables devant le public“. “De larges accords de confidentialité nous empêchent d’exprimer nos préoccupations, sauf auprès des entreprises mêmes qui ne parviennent pas à résoudre ces problèmes. Les protections ordinaires des lanceurs d’alerte sont insuffisantes, car elles se concentrent sur les activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés.”

Que réclament les employés d’Open AI ?

  • Que l’entreprise ne conclura ni n’appliquera aucun accord interdisant à ses employés d’exprimer leurs critiques sur les risques liés à l’IA générative
  • Que l’entreprise mette en place un processus de retour anonymisé permettant aux employés s’exprimer leurs préoccupations liées aux risques au conseil d’administration de l’entreprise
  • Que l’entreprise soutienne une politique de critique ouverte et transparente, en permettant à ses employés de faire part de leurs préoccupations liées aux risques liés à ses technologies au public, au conseil d’administration de l’entreprise, aux régulateurs ou à une organisation indépendante appropriée, à condition que les secrets commerciaux et autres intérêts de propriété intellectuelle soient correctement protégés
  • Que l’entreprise n’exerce aucune représailles contre les employés qui expriment publiquement leurs inquiétudes sur la question de l’IA générative.

 

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

4 commentaires
  1. Faut arrêter. L’IA c’est pas le problème. Le problème c’est ce pourquoi on l’utilise. Et encore une fois c’est l’arbre qui cache la forêt. On pointe du doigt l’IA pour ne pas avoir à regarder ce qui est déjà là et qui pose déjà problème : privatisation des données médicales, exploitation massive de données privées; surveillance, video, santé, sport, sommeil, habitudes de consommation, orientation sexuelles, orientation politique, activités quotidiennes, déplacements, goûts artistiques, culinaires etc…

    Les montres connectées, les smartphones, les traqueurs d’activités, les assistants vocaux,… c’est avant tout cela qui pose problème et qui est déjà là. L’IA arrive juste derrière. C’est une prise de pouvoir total de nos habitudes et de nos pensées qui s’opère au travers de tous ces “assistants numériques”.

    1. Il faut aussi arrêter de se prendre pour le centre du monde.
      Toutes les sociétés high-tech qui prélèvent des données se foutent qu’elles appartiennent à Dupond ou Dupont. Ce qu’elles veulent c’est prélever un tas de données pour les passer à la moulinette de leurs algorithmes pour au final, vendre du produit. Donc que M. Dupont aille faire ses courses à 09h 15 à carrouf tous les mardis, tout le monde s’en c***, mais combien de personnes y vont durant cette période-là, ça c’est plus intéressant.
      Donc nos données personnelles sont perdues et éparpillées à dose infinitésimale dans une meule d’octets, et surtout elles restent anonymes pour tout le monde.

  2. A jcc c est inexact.. aux us les assureurs sante sont tres interesses de savoir les maladies de mr dupond. Les employeurs aiment savoir si leur employe s exprime contre eux ou sortent prendre un cafe a 16h alors quils sont en arret maladie.
    Bcp de personnes sont lnteresseed par votre vie sans quencela ne fasse de vois le centre du monde…

  3. “Ces risques vont de l’aggravation des inégalités existantes à la manipulation et à la désinformation, ”

    Pour les inégalités je peux déjà le voir, quand des ssii viennent sur bfm radio se vanter d’en utiliser pour recruter, en expliquant comment ça fonctionne, et leur explication du fonctionnement ne fait qu’augmenter le clonage de profils.

    Niveau désinformation, c’est clair, assez régulièrement rien que sur Copilot ça me propose de faire des textes dans ce sens pour m’amuser, bien sûr c’est pas écrit de manière brute, mais c’est toujours écrit dans ce sens. Puis combien de site avec du contenus d’IA ? C’est même un critère chez reworld media le tout plus ou moins piloté par des stagiaires et du personnel au rabais…

Les commentaires sont fermés.

Mode