Depuis le déploiement de Grok, le chatbot IA développé par l’entreprise d’Elon Musk, ce dernier a régulièrement affirmé son intention d’en faire un système dédié à la recherche de la vérité la plus objective qui soit. Il a réitéré ces propos ce mercredi, lors d’un livestream correspondant au lancement de la nouvelle version Grok 4.
Et, à chaque fois, une question légitime revient sur la table : quelles sources cet agent conversationnel irrévérencieux va-t-il consulter pour identifier ces vérités ? Apparemment, il s’inspire directement des prises de position… d’Elon Musk lui-même, selon un article publié par TechCrunch ce jeudi.
Pour comprendre les tenants et aboutissants de cette affaire, il faut d’abord remonter à la sortie de Grok 3, en février 2025. Avec cette version, le chatbot est passé à un modèle dit Chain of Thought (chaîne de pensée). Il s’agit d’une approche qui force les grands modèles de langage à découper leur raisonnement en plusieurs étapes avant d’arriver à une réponse finale, ce qui permet théoriquement d’améliorer leur précision lorsqu’on leur pose des questions complexes qui nécessitent un raisonnement logique.
Ces différentes étapes intermédiaires sont généralement indiquées explicitement pendant le processus d’inférence — les opérations à travers lesquelles un modèle IA déjà entraîné réalise des prédictions à partir de nouvelles données. C’est une fonctionnalité assez utile, car cela permet de se faire une idée du processus qui permet au modèle d’arriver à une conclusion.
Certes, il ne s’agit pas d’un indicateur parfaitement fiable, puisque les grands modèles de langage restent des “boîtes noires” dont la mécanique interne reste très mystérieuse. Mais en règle générale, cela permet au moins d’identifier une partie des sources sur lesquelles le chatbot s’est appuyé pour répondre à la question… et c’est là que quelques internautes ont fait une découverte étonnante.
Grok, du paria au perroquet ?
Depuis la sortie de Grok 4, plusieurs internautes qui ont décortiqué les chaînes de pensée de Grok ont constaté un phénomène récurrent. Lorsqu’on interroge le chatbot sur des questions politiques sensibles, comme Israël, la Palestine, l’Ukraine, la Russie ou les lois sur l’immigration, il va systématiquement piocher… dans les tweets d’Elon Musk lui-même.
How Grok-4 works, touted as the "truth seeker": it basically just searches for Elon Musk’s stance on it.🤣 pic.twitter.com/LbxnQXibfo
— Dr. Gorizmi (@gorizmi) July 11, 2025
« Grok 4 décide ce qu’il pense d’Israël et de la Palestine en cherchant les pensées d’Elon Musk », observe l’investisseur Ramez Naam. « J’ai répliqué ces résultats : Grok se focalise presque entièrement sur le fait de trouver ce qu’Elon pense pour s’aligner dessus, sans instructions personnalisées », renchérit l’entrepreneur et ancien professeur de Stanford Jeremy Howard.
I replicated this result, that Grok focuses nearly entirely on finding out what Elon thinks in order to align with that, on a fresh Grok 4 chat with no custom instructions.https://t.co/NgeMpGWBOB https://t.co/MEcrtY3ltR pic.twitter.com/QTWzjtYuxR
— Jeremy Howard (@jeremyphoward) July 10, 2025
C’est un comportement qui n’avait pas été observé avec les précédentes versions de Grok, et cela suggère que cette quatrième mouture a été explicitement programmée pour relayer les prises de position du magnat américain. Certes, il pourrait s’agir d’une erreur innocente – mais dans tous les cas, cela n’inspire pas vraiment confiance dans la recherche de la fameuse “vérité absolue” que Grok est censé poursuivre. Et les implications de cette démarche sont assez profondes et pernicieuses.
Depuis quelques mois, Grok est devenu un des piliers du nouveau visage d’X. Des tas d’internautes n’hésitent désormais plus à l’interroger sur des sujets divers et variés, notamment pour des opérations de “fact-checking” ou pour débunker des propos polémiques, et certains d’entre eux semblent lui faire aveuglément confiance. Le fait de régurgiter ainsi les propos d’Elon Musk constitue donc un biais majeur qui risque de passer complètement inaperçu dans de nombreux cas — avec tout ce que cela implique en termes de désinformation sur ce réseau social où plus de 250 millions de personnes sont actives chaque jour.
Une bombe nucléaire politique
C’est particulièrement préoccupant dans le contexte actuel, où Elon Musk est en train de devenir un acteur politique de premier plan. Vous avez probablement suivi son implication controversée dans la campagne de Donald Trump, puis la fin de son idylle avec l’actuel président des États-Unis, suite à quoi il a commencé à s’y opposer frontalement. Tout récemment, il a même affiché son ambition de créer son propre parti politique.
Si cette trajectoire se confirme, nous pourrions bientôt nous retrouver dans une situation inédite : celle où un responsable politique de premier plan disposerait non seulement de sa propre plateforme sociale, ce qui constitue déjà un levier d’influence colossal, mais également d’un chatbot présenté comme un “chercheur de vérité”… qui relaie en fait ses opinions personnelles. La recette parfaite pour instaurer une forme de monopole narratif, et orienter discrètement l’opinion publique dans une direction compatible avec des intérêts personnels.
Au-delà du cas particulier d’Elon Musk, cette affaire soulève des questions fondamentales sur l’avenir des agents conversationnels dans l’espace public, et même sur le fonctionnement de nos sociétés.
Alors que les LLM, perçus par de nombreuses personnes comme neutres et rationnels, sont en train de devenir des intermédiaires incontournables dans l’accès à l’information, leur transparence et leur indépendance ne sont plus seulement des questions d’ordre technologique : il s’agit désormais de véritables enjeux démocratiques. Si ces systèmes commencent à être militarisés par des acteurs politiques pour en faire des armes de propagande, capables d’orienter subrepticement l’opinion publique sous couvert d’objectivité, c’est l’ensemble de notre rapport à la vérité qui risque d’être fragilisé encore davantage.
Il conviendra donc de suivre l’évolution de ce feuilleton dans les jours et semaines à venir, car ce qui se joue ici dépasse largement le cas d’un chatbot isolé : nous assistons peut-être à l’émergence d’un précédent qui pourrait redéfinir notre rapport collectif à l’information pour les décennies à venir.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.