Dossier

Intelligence artificielle : la France peut-elle s’imposer face aux États-Unis et à la Chine ?

L’intelligence artificielle est un champ de recherche hautement stratégique dans lequel les Etats-Unis et la Chine se livrent une guerre sans merci. Face à la puissance de ces géants, la France est-elle condamnée à regarder de loin le train passer ? La situation est en fait bien moins sombre qu’on ne pourrait le croire.

États-Unis. Chine. États-Unis. Chine. Il suffit de lire l’actualité pour mesurer leur omniprésence dans l’intelligence artificielle. Les deux pays se tirent la bourre pour occuper la première marche du podium. Et ce n’est évidemment pas anodin. Si l’Empire du milieu et celui de l’Oncle Sam consacrent tant de temps et d’argent à l’IA c’est bien le signe qu’il s’agit d’un secteur hautement tactique amené à changer profondément tous les autres, de la santé à l’industrie en passant par les services et le commerce. Ceux qui n’arrivent pas à s’y placer risquent d’en faire les frais. Ce qui soulève une question un poil anxiogène : la France peut-elle se positionner dans l’intelligence artificielle ? A t-elle les moyens de lutter contre des concurrents si imposants ? La situation est en fait moins sombre qu’on ne pourrait le croire.

Des atouts sous-estimés

Certes les Etats-Unis et la Chine ont pris le virage plus tôt et accumulé des tas de données grâce à leurs géants technologiques (et leurs politiques pour le moins “décomplexées” en matière de collecte d’informations). Certes ces deux colosses sont boostés par leurs énormes marchés intérieurs. Mais la France a de sérieux atouts sur lesquels s’appuyer pour se faire une place dans l’IA. Le premier ? Ses filières d’enseignements. Ce n’est pas un hasard en effet si l’on trouve tant de chercheurs français en IA chez les géants de la tech. La qualité de certains de nos cursus notamment en maths a acquis depuis longtemps une réputation internationale.

« Nous savons qu’en France, nous n’aurons pas de difficultés à trouver le genre de profils que nous recherchons”, Antoine Bordes (Facebook)

Si de nombreux poids lourds du secteur (Facebook, Google, etc.) ont décidé d’implanter des labos d’intelligence artificielle à Paris, c’est d’ailleurs aussi pour cette raison-là. “Nous savons qu’en France, nous n’aurons pas de difficultés à trouver le genre de profils que nous recherchons”, nous explique Antoine Bordes, directeur du centre français de recherche en IA de Facebook.

Photo by Jaime Lopes on Unsplash

Pour Nicolas Brien, DG de l’association professionnelle France Digitale, il faut cependant exploiter davantage cet atout en diffusant plus largement ces connaissances stratégiques. La capacité à comprendre comment fonctionne un algorithme devient chaque jour plus importante. Il y a donc un vrai réarmement mathématique à faire en France. Il s’est passé trois siècles entre l’invention de l’imprimerie et l’école publique de Jules Ferry. II ne faut pas qu’il s’en écoule trois autres entre Alexa et l’éducation aux algorithmes”, nous confie-t-il.

Un trésor caché de données

Avoir des candidats qualifiés c’est bien mais quid des données, le nerf de la guerre dans l’IA? La France ne dispose pas, en effet, des volumes colossaux de data accumulés par les GAFA à force d’analyser nos historiques de recherches, nos likes, nos déplacements etc. “Il faut se différencier, identifier les domaines dans lesquels nous disposons de jeux de données qui sortent de l’ordinaire et miser sur ces atouts”, nous assure Igor Carron, PDG de LightOn, une startup française qui développe des co-processeurs optiques conçus pour les applications de « machine learning » à grande échelle. Cela tombe bien, il se trouve que nous avons un allié assez inattendu sur le sujet des données : le service public !

En Europe, les pouvoirs publics sont en effet particulièrement bien développés. Et c’est tout à notre avantage car nos administrations ont accumulé des trésors de données dans de domaines aussi variés que l’eau, l’énergie, les transports ou la santé.La plus grande base de données en santé, ce n’est pas aux Etats-Unis qu’elle se trouve, c’est la sécurité sociale française, affirme ainsi Nicolas Brien, de France Digitale. Celle-ci recense d’ailleurs toutes les catégories de population à l’inverse des mutuelles américaines qui ne comprennent que les plus aisées. Les données de la Sécu sont ainsi représentatives de la population réelle et cela, c’est une condition clé pour développer une bonne IA.

Se placer sur l’intelligence artificielle médicale serait particulièrement intéressant pour la France car le domaine est stratégique. “Les possibilités sont incroyables. L’IA devrait considérablement améliorer les diagnostics. Il y a aussi de belles perspectives dans le champ de la création de médicaments personnalisés, adaptés au profil génomique de la personne”, nous confie Stéphanie Trang, directrice du programme AI for Health.

Photo by Luis Melendez on Unsplash

La France a en tout cas commencé à avancer ses pions en créant quatre instituts interdisciplinaires de l’IA (3IA) sur des thématiques ciblées (la santé, l’environnement, les transports, les territoires et l’énergie) et en développant un fond pour l’innovation et l’industrie (doté de 10 milliards d’euros). La construction à Saclay d’un puissant supercalculateur de 14 pétaflops spécialement conçu pour les applications IA devrait aussi permettre aux chercheurs de s’attaquer à des défis délicats notamment l’apprentissage sur des jeux de données réduits.

L’Union Européenne commence également à organiser sa riposte avec par exemple le lancement de AI4EU, une plateforme qui aidera ses membres à partager des ressources (données, briques d’algorithme, etc.) afin de faire avancer la recherche. « L’Europe se différencie aussi sur la protection des données. En montrant qu’elle prend le sujet au sérieux, elle envoie un signal très rassurant aux yeux de certaines entreprises« , analyse Alaa Gouja, consultant data science chez Deloitte. La bataille de l’IA a commencé et elle s’annonce difficile. Mais la France et l’Europe sont mieux armées qu’on ne pourrait le penser.

7 réponses à “Intelligence artificielle : la France peut-elle s’imposer face aux États-Unis et à la Chine ?”

  1. Le sujet est super vaste, mais il ne faut pas mélanger innovation scientifique, et innovation industrielle. Dans le second cas, la Chine est en effet très bien placée, et les US à la ramasse.
    Par contre pour l’innovation scientifique, elle se passe quasiment exclusivement aux US. Je ne me souviens pas du dernier article révolutionnaire que j’ai vu rédigé par un français. Alors que pour les US… beaucoup de figures très compétentes y travaillent. La France n’est pas en retard, mais pas en avance pour autant d’après mon expérience. Le problème étant qu’on a plus de figures symboliques que de véritables chercheurs à la pointe.

    Et le virage actuel de l’IA (l’interpretabilité, qui est dans toutes les bouches) a été entamé… par les États Unis

  2. Encore moi 😉
    Concernant l’interpretabilité, il est intéressant de voir que les aspects éthiques sont une motivation importante, notamment poussée en avant par le RGPD. Du coup, que les USA conservent un leadership scientifique pourrait inquiéter…

    En terme d’innovation scientifique, tu vois quoi comme avancée récente. Parce que de mon côté, à part le Deep Reinforcement Learning… Les GAN, j’ai l’impression que c’est une nouveauté, mais qui ne fera qu’améliorer un peu les performances des réseaux de neurones dans certains cas…

  3. Mila au québec a montreal : yoshua bengio attire beaucoup de grand chercheurs dont Ian goodfeelow qui est passé la bas et qui est également l’inventeur des réseaux de GANs.

  4. Est ce que des Français peuvent tout casser en IA? ouai… en fait, c’est même déja le cas. Y’a qu’a voir Yann Lecun. Ils bossent pour des boites étrangeres.
    Est ce que la France le peut? non. Un non catégorique. Pourquoi? parceque la france ne finance plus la recherche alors que tous les autres pays le fond, du moins ceux qui veulent rester dans le haut du panier.

  5. Hey !

    Je pense que les vraies nouveautés (ou plutôt l’innovation) est à chercher en dehors des « deep something ». Je pense à Tomasev et sa hubness qui donne de sacrés insights théoriques sur le fonctionnement des données en haute dimensions. Je pense aux travaux d’explicabilité menés par pas mal d’équipes mais plus spécialement par l’USC Los Angeles. En fait les pistes les plus intéressantes sont toutes en dehors du deep Learning et de leur course permanente à l’optimisation applicative je pense.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *