Passer au contenu

Intelligence artificielle : l’Europe officialise son projet de réglementation

La Commission européenne s’est réunie cette semaine pour poser les bases d’un projet visant à réglementer l’usage de l’intelligence artificielle sur son territoire.

intelligence_artificielle_inquiète_Français
© I Robot – 20th Century Fox

Deux mois après la publication d’un livre blanc sur l’intelligence artificielle publiée par l’INRIA (Institut national de recherche en sciences et technologies du numérique), la Commission européenne a officiellement annoncé son projet de réglementation “en faveur de l’excellence et de la confiance dans l’intelligence artificielle”. Après une première esquisse du projet la semaine dernière autour de la création d’un cadre européen visant à réguler l’IA et à éviter la “surveillance indiscriminée” de la population, l’Union européenne vise désormais à agir “en faveur de l’excellence et de la confiance dans l’intelligence artificielle”. Concrètement, la création d’un cadre juridique sur l’IA — une première en Europe, devrait ainsi permettre de garantir “la sécurité et les droits fondamentaux des personnes et des entreprises, tout en renforçant l’adoption, l’investissement et l’innovation de l’intelligence artificielle”.

Plusieurs niveaux de risque

Après l’officialisation d’une nouvelle réglementation européenne, l’UE a ainsi détaillé les différents niveaux de risques exposés. Quatre catégories exhaustives sont concernées.

  • Les systèmes d’IA à risque minime, qui resteront en libre usage. Ces derniers concernent par exemple les jeux vidéo ou les filtres anti-spam dont le fonctionnement repose sur l’intelligence artificielle.
  • Les systèmes d’IA à risque limité, comme les chatbots. Ces derniers ne seront pas interdits, mais devront faire preuve de davantage de transparence, en indiquant clairement aux utilisateurs qu’ils échangent avec une machine par exemple.
  • Les systèmes d’IA à risque élevé, qui devront désormais se conformer à des obligations strictes. Ces derniers concernent notamment les technologies d’IA utilisées dans la formation professionnelle, l’éducation, l’accès à l’emploi et aux services publics, mais aussi la gestion de la migration, le contrôle aux frontières et la gestion administrative publique. Pour être autorisés, ces derniers devront faire preuve de transparence, aussi bien du côté des utilisateurs qu’en cas de contrôle par les autorités compétentes. Ils devront aussi veiller à ce que leurs données soient suffisamment qualitatives pour éviter de générer des effets discriminatoires.
  • Les systèmes d’IA à risque inacceptable, enfin, qui seront purement et simplement interdits. Ces derniers concernent notamment les applications accusées de manipuler les comportements humains afin de priver les utilisateurs et utilisatrices de leur libre arbitre. En cas de manquement à cette nouvelle réglementation, les entreprises responsables encourent une amende à hauteur de 4% de leur chiffre d’affaires mondial, pour un montant maximal de 20 millions d’euros.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : Les Echos

2 commentaires
  1. Les systèmes d’IA à risque inacceptable


    Oulala on est riche , sa fait longtemps déjà que sa devrais être en place sa

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode