Passer au contenu

Les IA hallucinent, mais pourquoi ?

C’est un des revers bien connus et franchement pénibles de l’IA : sa tendance à « halluciner » des faits et à se tromper. Selon les tests internes d’OpenAI, le modèle o3 produit des « hallucinations » environ 33 % du temps, tandis que le plus léger o4-mini grimpe à 48 %. C’est plus du double du taux observé avec l’ancien modèle o1. Mais que se passe-t-il ?

« Quand un système invente des faits, des sources ou des événements avec la même fluidité qu’il transmet des informations exactes, il peut induire en erreur de façon subtile mais lourde de conséquences », explique Eleanor Watson, membre de l’IEEE et spécialiste de l’éthique de l’IA à la Singularity University, comme le rapporte LiveScience.

L’hallucination, un moteur de créativité

Derrière ce phénomène, il y a aussi une explication technique. Les modèles de raisonnement ne se contentent pas de donner la réponse statistiquement la plus probable : ils décomposent un problème en étapes et génèrent des stratégies, ce qui ouvre la voie à des réponses originales.

L’hallucination est donc une caractéristique, pas un défaut. Si l’IA se limitait à répéter uniquement des données vues durant son entraînement, elle ne produirait jamais de code inédit, ne découvrirait pas de nouvelles molécules ou ne pourrait pas inventer une chanson dans le style de Snoop Dogg et Bob Dylan (mettons de côté les problèmes de droit d’auteur pour un moment…).

En d’autres termes, les systèmes génératifs ont besoin d’inventer pour créer. L’analogie la plus parlante est celle du rêve humain : l’imagination produit parfois des scénarios absurdes, mais c’est aussi ce processus qui nourrit la créativité. Le problème, c’est que ces inventions, lorsqu’elles sont habillées de logique et de cohérence, peuvent être prises pour argent comptant par les utilisateurs.

Pour les experts, le phénomène d’hallucination ne pourra sans doute jamais disparaître totalement. Mais plusieurs pistes existent pour en réduire l’impact. L’approche dite de « retrieval-augmented generation », qui consiste à adosser les réponses de l’IA à des bases de connaissances vérifiées, fait partie des solutions envisagées.

D’autres méthodes impliquent de structurer le raisonnement : amener le modèle à vérifier ses propres sorties, à comparer plusieurs options ou à signaler explicitement son incertitude plutôt que de fournir une réponse fausse en toute confiance.

Dario Amodei, directeur général d’Anthropic, rappelle toutefois que le fonctionnement interne des modèles reste opaque : « Quand une IA résume un document financier, nous ne savons pas précisément pourquoi elle choisit tel mot plutôt qu’un autre, ni pourquoi elle commet une erreur alors qu’elle est généralement fiable. »

Face à cette boîte noire, il faut être méfiant : l’information fournie par une IA doit être accueillie avec la même prudence que celle d’un humain. Les références bidons complètement inventées ou ces chatbots qui créent de toutes pièces une politique d’entreprise sont déjà trop fréquents.

Les nouvelles IA d’OpenAI et des autres génèrent aussi davantage de contenus erronés. Les spécialistes rappellent que ces « hallucinations », qui sont parfois nécessaires à la créativité, posent aussi un sérieux problème de fiabilité, notamment dans les secteurs où la précision est cruciale. Dans ce cas, l’expertise humaine demeure indispensable, ce qui est quelque part un soulagement.

🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Source : LiveScience

Mode