Passer au contenu

Pourquoi OpenAI, le créateur de ChatGPT, menace-t-il de quitter l’Europe ?

Sam Altman, le patron d’OpenAI, a indiqué que son entreprise pourrait envisager de quitter l’Europe si elle ne pouvait pas se conformer aux réglementations en cours de discussion sur l’intelligence artificielle. De quoi jeter une ombre sur l’avenir de l’IA en Europe…

Sam Altman, PDG d’OpenAI, a laissé entendre que le créateur de ChatGPT pourrait envisager de quitter l’Europe si l’entreprise ne parvenait pas à se conformer aux réglementations sur l’intelligence artificielle que prépare l’Union Européenne. La déclaration d’Altman met en lumière les préoccupations croissantes des entreprises technologiques face à la réglementation envisagée par l’Union européenne sur ce sujet brûlant.

Une réglementation complexe sur l’intelligence artificielle

L’UE travaille sur ce qui pourrait être la première réglementation au monde sur l’IA. Selon le projet, les entreprises qui déploient des outils d’IA génératifs, comme ChatGPT, devront révéler tout matériel protégé par des droits d’auteur utilisé pour développer leurs systèmes. Sam Altman a souligné que, avant d’envisager un retrait, OpenAI tenterait de se conformer à la réglementation en Europe une fois qu’elle sera mise en place.

Le projet actuel l’IA de l’Union serait, selon le patron d’OpenAI, trop réglementé, mais il a aussi entendu dire que le texte actuel allait être revu : « Ils en discutent encore », a-t-il affirmé lors d’un événement à Londres. Ce mois-ci, les parlementaires de l’UE ont trouvé un terrain d’entente sur le projet de loi. Il sera débattu entre les représentants du Parlement, du Conseil (la réunion des États membres) et de la Commission pour finaliser les détails de la législation. « Il y a tellement de choses qu’ils pourraient faire, comme changer la définition des systèmes d’IA à usage général », a déclaré Altman, faisant allusion aux possibilités de changement et d’amélioration.

En général, une application d’IA peut être considérée comme à haut risque si elle a le potentiel d’affecter significativement les droits des individus ou leur sécurité, ou si elle est utilisée dans des contextes où l’IA pourrait mettre en danger la santé, la sécurité ou les droits fondamentaux des citoyens. Il peut s’agir, par exemple, d’IA utilisées dans les domaines de la santé, du transport, de la police et de la justice, ou des systèmes d’IA qui pourraient avoir un impact sur les mineurs ou d’autres groupes vulnérables.

À l’image du règlement général pour la protection des données (RGPD) mis en place en 2018, l’AI Act pourrait devenir un standard inspirant d’autres législations dans le monde entier. La réglementation encore provisoire de l’UE sur l’intelligence artificielle fait d’ailleurs déjà des vagues à l’international. Fin septembre 2021, le Congrès brésilien a adopté un projet de loi créant un cadre juridique pour l’intelligence artificielle. Il doit encore être adopté par le Sénat du pays.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *