Passer au contenu

Elections : 20 géants de la tech s’allient pour lutter contre les deepfakes

Cette coalition qui comprend notamment Google, Amazon, Meta, OpenAI, X et TikTok, veut protéger l’intégrité du processus électoral contre la déferlante de contenu multimédia truqué grâce à l’IA.

20 géants des nouvelles technologies dont Google, OpenA et Amazon ont fondé une grande coalition avec un objectif commun : empêcher que les nouveaux outils basés sur l’intelligence artificielle générative ne soient utilisés pour tromper les votants pendant la grande vague d’élections qui va déferler sur la planète en 2024.

Cela fait déjà plusieurs années que la capacité de cette technologie à générer des textes, des images, des vidéos ou des enregistrements audio plus vrais que nature fascine autant qu’elle préoccupe. Ces inquiétudes concernent tout particulièrement les deepfakes, ces contenus multimédias manipulés grâce à l’IA qui peuvent être utilisés pour attribuer des propos trompeurs ou des actions litigieuses à une personne.

Des trucages plus accessibles que jamais

Historiquement, ces trucages étaient réservés à des acteurs qui disposaient d’outils spécialisés et d’une grande expertise technique. Mais la prolifération de ces nouveaux outils dopés au machine learning a rendu la production de contenu trompeur plus accessible que jamais. N’importe qui peut désormais détourner l’image ou les propos d’une personne en quelques clics, et de manière très convaincante. En 2022, une étude scientifique affirmait déjà que la majorité des humains n’étaient plus capables de faire la différence entre un deepfake de bonne qualité et une image authentique.

Et la technologie n’a fait que progresser depuis. De plus en plus d’observateurs s’inquiètent donc des conséquences de cette dynamique. Il existe notamment un risque que ces outils soient utilisés pour entraver le bon déroulement du processus démocratique en trompant les votants en amont d’une élection.

Cette thématique est en train de devenir particulièrement importante en ce moment, alors qu’une grande partie de la planète va passer aux urnes sur les prochains mois. États-Unis, Inde, Parlement européen… au total, ce sont plus de deux milliards de personnes qui vont élire les représentants de leurs gouvernements et institutions en 2024.

Des risques exacerbés par le contexte

En l’espace de quelques mois, nous avons assisté à un déferlement de deepfakes politiques dans de nombreux pays, dont la France. Par exemple, en tout début d’année, un porte-parole de Renaissance a partagé un montage de Marine Le Pen généré grâce à l’intelligence artificielle. Plus récemment, c’est un JT de la chaîne France24 qui a été détourné pour faire la promotion d’une (fausse) tentative d’assassinat sur Emmanuel Macron.

On constate la même tendance, mais à une échelle encore plus importante de l’autre côté de l’Atlantique. Les États-Unis vont élire leur prochain Président en novembre, et le machine learning est déjà en train de jouer les trouble-fêtes alors que le processus n’en est encore qu’au stade des primaires. En janvier, des votants du New Hampshire ont été visés par de faux appels téléphoniques du président démocrate Joe Biden. L’objectif était de les dissuader de prendre part aux élections primaires locales pour faire pencher la balance en faveur du camp opposé.

Heureusement, la supercherie a été identifiée rapidement et n’a pas eu d’impact significatif sur le scrutin. Mais cet épisode a servi de piqûre de rappel. Le public et les garants des élections ont réclamé de nouvelles mesures pour protéger l’intégrité du processus électoral des assauts des IA utilisées à des fins malveillantes.

Les cadors de la tech montent au créneau

Plutôt que de faire l’autruche et de se retrouver au centre d’un véritable désastre institutionnel, 20 poids lourds de la Big Tech ont donc décidé de prendre leurs responsabilités. Selon Bloomberg, ce groupe comprend des titans historiques de la tech comme Microsoft, Google ou Amazon. On y trouve également des spécialistes de l’IA générative comme OpenAI, l’entreprise à l’origine de l’incontournable ChatGPT, ou AnthropicAI. Il rassemble également plusieurs groupes de médias sociaux comme Meta (la maison-mère de Facebook), X (anciennement Twitter), TikTok ou encore Snap Inc, qui gère le réseau Snapchat.

À travers un texte baptisé Tech Accord to Combat Deceptive Use of AI in 2024 Elections, ces 20 entreprises s’engagent à développer des contre-mesures pour endiguer ce flux de désinformation massive. Concrètement, ces efforts devraient conduire à la création de nouveaux outils logiciels spécialisés dans l’identification du contenu multimédia manipulé grâce à l’IA générative.

Ce concept n’est pas nouveau. Par exemple, l’entreprise de Mark Zuckerberg travaille déjà sur la détection des deepfakes depuis 2020. Mais jusqu’à présent, tous ces efforts ont produit des résultats assez mitigés. À ce jour, il n’existe toujours pas de système suffisamment performant pour réaliser ce travail de fond. En mettant leurs ressources et leurs expertises au service d’une cause commune, les membres de cette équipe de choc qui pèse plusieurs billions de dollars pourront enfin espérer trouver une solution mature et flexible, capable de suivre le rythme des progrès de l’IA générative.

Une responsabilité partagée

Plus largement, la coalition s’engage aussi à chercher des manières de gérer la distribution de ces contenus truqués. X, TikTok et consorts auront un rôle crucial, puisqu’il s’agit de plateformes particulièrement propices à la dissémination des deepfakes. Les 20 entreprises s’engagent aussi à faire preuve de transparence sur les mesures qu’elles vont mettre en place pour atteindre leurs objectifs.

Enfin, elles comptent aussi financer des campagnes de prévention pour sensibiliser les internautes à cette menace. Car même si cet accord représente une avancée significative dans la bonne direction, les signataires insistent sur le fait qu’il ne s’agit pas d’une solution miracle. Selon Brad Smith, Président de Microsoft qui a publié un billet de blog sur le sujet, la protection de l’intégrité électorale et de la confiance publique est une responsabilité partagée par toutes les couches de la société. Pour faire de vrais progrès à ce niveau, il faudra donc que ces entreprises travaillent de concert avec les pouvoirs publics et les citoyens.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

1 commentaire
  1. La première parade est simple, même si elle ne plaît à personne (et qu’elle est hors de portée de beaucoup de monde): ne plus se baser _que_ sur ce qu’on entend ou voit en chair et en os, être très critique de ce qui provient d’un écran, de la radio, etc., et analyser / construire son jugement à partir de cela en étant ouvert au débat et à la contradiction.
    C’est déjà ce qu’on faisait avant l’avènement de l’enregistrement et des messages longue distance.
    À cela, il serait bon d’enfin ajouter un système cryptographique pour signer tout message, permettant à chacun d’authentifier l’auteur et éviter les contrefaçons à distance.

    Mais comme c’est trop fatigant pour le quidam moyen (et qu’aucun politique ne voudra d’un système infaillible), on est foutus. Alors, tant pis, que les “génies” continuent à renforcer les deepfakes (en cherchant à les détecter), puisque c’est le seul avenir qu’on peut avoir avec notre société actuelle.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *