La machine réglementaire européenne est en marche. Depuis une semaine, une première salve d’obligations issues de l’Artificial Intelligence Act (AI Act) est entrée en vigueur. Le texte, adopté en 2023 et salué comme le plus ambitieux du monde en la matière, entend encadrer le développement et la commercialisation de l’intelligence artificielle sur le territoire européen. En ligne de mire : les fournisseurs de modèles dits « à usage général » (ou GPAI), capables de générer du texte ou des images, à l’instar de ChatGPT (OpenAI), Gemini (Google) ou Grok (xAI).
Premières règles pour les modèles d’IA générative
Ces entreprises doivent fournir une documentation technique sur leurs modèles, publier un résumé des données d’entraînement, et mettre en place une politique de respect du droit d’auteur. Les modèles considérés comme « à risque systémique » — c’est-à-dire présentant des risques pour la sécurité, les libertés fondamentales ou la maîtrise humaine — devront aussi notifier la Commission européenne, évaluer les risques liés à leur utilisation, et renforcer leur sécurité.
L’encadrement est progressif : les modèles déjà en circulation ont jusqu’au 2 août 2027 pour se mettre en conformité. Mais pour les plus puissants, les règles s’appliquent dès maintenant.
Et ces nouvelles règles ne font pas l’unanimité. Les États-Unis, et en particulier l’administration Trump, voient d’un mauvais œil cette approche qu’ils jugent trop contraignante. Le président américain a même lancé un « grand plan d’accélération de l’IA » pour lever les freins réglementaires et renforcer le leadership américain.
Du côté des entreprises, l’accueil est tiède. Si Google a signé le code de bonnes pratiques rédigé par la Commission, l’entreprise a aussi fait part de ses inquiétudes, en estimant que cette régulation risquait de « freiner le déploiement de l’IA en Europe ». Meta, de son côté, a tout simplement refusé de signer le code. Pour Joel Kaplan, responsable des affaires publiques du groupe, le texte contient trop d’« incertitudes ».
Ce refus ne les dispense toutefois pas de se conformer au règlement européen, qui reste juridiquement contraignant. Le régime de sanctions est prêt : jusqu’à 7 % du chiffre d’affaires mondial pour les contrevenants.
Derrière ces discussions techniques, c’est un affrontement politique plus large qui se joue. Bruxelles veut affirmer sa souveraineté numérique et protéger ses valeurs démocratiques. Washington dénonce une « approche incohérente et restrictive », selon les mots de Joel Kaplan, et menace d’inclure ces régulations dans les négociations commerciales à venir.
Prochaine étape : la mise en place des règles pour les IA à haut risque en 2026, dans des domaines comme l’éducation, la santé ou les infrastructures.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.