Passer au contenu

L’un des plus grands cabinets de conseil facture plein pot un rapport truffé d’hallucinations IA : l’Australie va être remboursée

Le gouvernement australien va être partiellement remboursé par Deloitte, pris la main dans le sac après la découverte de l’utilisation d’une IA pour rédiger un rapport à 440 000 dollars australiens. L’étude comportait de fausses citations et des références inventées…

Voilà une histoire embarrassante pour l’un des plus grands cabinets de conseil du monde. Deloitte Australia a reconnu avoir utilisé une IA générative — en l’occurrence un modèle GPT-4o d’OpenAI hébergé sur la plateforme Azure de Microsoft — pour rédiger un rapport destiné au ministère du Travail australien (Department of Employment and Workplace Relations, DEWR). Ce document de 273 pages, facturé environ 251 000 €, devait évaluer le système informatique chargé d’automatiser certaines pénalités dans le dispositif d’aide sociale du pays.

Un rapport officiel bourré d’erreurs IA

Problème : l’IA a tout simplement halluciné une partie du contenu. Trois références universitaires inexistantes, une citation imaginaire tirée d’un jugement fédéral et même des notes de bas de page fictives ont été repérées par un chercheur de l’université de Sydney, Christopher Rudge. « Deloitte a désormais avoué avoir utilisé une IA pour une tâche analytique centrale, sans le mentionner initialement», a-t-il dénoncé au Financial Review.

Face au scandale, une version corrigée du rapport a été discrètement publiée sur le site du ministère. Les passages erronés ont été supprimés ou réécrits, et une mention explicite de l’usage de l’IA a été ajoutée dans la méthodologie. Le cabinet s’est engagé à rembourser une partie du contrat, sans préciser le montant exact.

Cette affaire jette une lumière pas très agréable sur les dérives de l’automatisation dans les travaux d’analyse et de conseil. Deloitte, qui tire une part croissante des quelque 107 milliards de dollars de revenus mondiaux de ses activités autour de l’IA, vante pourtant la nécessité d’un « contrôle humain systématique» sur les productions générées avec cette technologie…

L’épisode tombe mal. Il survient dans un climat de méfiance vis-à-vis de l’usage incontrôlé de ces outils dans les milieux professionnels. Pour le chercheur à l’origine de la découverte, les conclusions du rapport sont désormais « inexploitables », puisque « l’analyse de base a été réalisée par une IA non experte ». Le ministère australien du Travail se veut rassurant. Il assure que « la substance de l’audit indépendant est préservée » et que les recommandations du rapport restent valides. En clair, les corrections ne changeraient pas le fond de l’étude — même si ses fondations reposent sur des hallucinations !

Deloitte n’en est pas à son premier contrat avec le gouvernement australien : le cabinet a conclu pour près de 25 millions de dollars d’accords avec le ministère depuis 2021. Une proximité qui soulève bien des questions sur les contrôles et la transparence de ces prestations à (soi-disant) haute valeur ajoutée.

🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Mode