Selon Elon Musk, l’utilisation de l’IA devrait être réglementée même chez Tesla

Alors que sa société OpenAI se révèle finalement plus pro-IA qu’il ne l’imaginait, Elon Musk réitère sur la nécessité d’instaurer des réglementations concernant les technologies d’intelligence artificielle – même dans sa propre entreprise automobile.

Elon Musk.
Crédits : Daniel Oberhaus / Flickr.

Pour cette figure emblématique de la tech, l’intelligence artificielle pourrait être encore plus dangereuse que la bombe atomique. En 2014, lors d’une conférence organisée par le MIT, Elon Musk s’était fait remarquer en déclarant que “l’IA était un démon” qu’il ne fallait surtout pas invoquer. L’année suivante, il fondait la société de recherche OpenAI afin de trouver des moyens d’intégrer les technologies relatives à l’IA de manière plus “sécurisée” et “bénéfique” pour la société. Tesla, le constructeur automobile dont il est le dirigeant, exploite désormais l’intelligence artificielle pour rendre ses véhicules de plus en plus autonomes. Pour éviter tout conflit d’intérêt, Elon Musk s’est par conséquent écarté de la direction d’OpenAI. Aujourd’hui, pour justifier des investissements et des financements, cette société tend davantage à atteindre le seuil de “l’intelligence artificielle générale” – celle que redoute son créateur – qu’en prémunir l’humanité. C’est en tout cas ce qu’a constaté une journaliste du MIT Technology Review à la suite d’une enquête très fournie.

À la suite de cette publication, Elon Musk s’est empressé d’y réagir sur Twitter (voir ci-dessus). “OpenAI devrait, selon moi, être plus transparente”, commente dans un premier temps son fondateur. “Toutes les organisations attelées à développer des technologies avancées en matière d’intelligence artificielle – y compris Tesla – devraient être réglementées”, conclut-il. Ce n’est pas la première fois qu’il réclame une intervention sur ce sujet. En 2018, il avouait qu’un “comité gouvernemental d’experts” devrait être déjà en place. “Il devrait passer un an ou deux à évaluer la situation concernant le développement de technologies potentiellement dangereuses – et en particulier l’IA.” Son idée verrait ce comité hypothétique établir des réglementations précises pour “assurer une utilisation sécurisée de l’IA.” Cependant, selon lui, il y a peu de chance qu’un tel comité soit créé.