Passer au contenu

Cette “super IA” employait en fait de vrais humains

La start-up britannique Builder.ai, valorisée à 1,5 milliard de dollars et soutenue par Microsoft, vient de s’effondrer dans un scandale retentissant.

ChatGPT a encore de beaux jours devant lui. Depuis quelques mois, la start-up Builder.ai s’était imposée comme l’un des symboles d’une nouvelle génération d’intelligence artificielle, plus fiable, mais surtout plus naturelle dans ses réponses. Son assistant virtuel, baptisé Natasha, était présenté comme une prouesse d’intelligence artificielle, au point de valoir à l’entreprise le soutien de Microsoft, et une valorisation à près de 1,5 milliard de dollars.

La réalité n’a toutefois pas tardé à éclater. Derrière les promesses technologiques, se cachaient en réalité 700 ingénieurs indiens imitant des chatbots pour répondre aux requêtes des internautes. Un fiasco qui ne fait plus figure d’exception sur le marché.

Natasha, l’IA trop humaine

La promesse de Builder.ai était alléchante : permettre à quiconque de créer une application aussi simplement qu’on commande une pizza, grâce à son assistant virtuel censé automatiser la génération de logiciels. Cette proposition a logiquement séduit de nombreux investisseurs, dont Microsoft, toujours prompt à miser sur les nouveaux génies technologiques.

Sauf que, dès 2019, le doute émerge quant à la réalité des prouesses techniques de Builder.ai. Un article du Wall Street Journal pointait déjà la faiblesse de sa technologie d’IA, largement compensée par l’intervention humaine. La supercherie éclate finalement en mai 2025, alors qu’un audit révèle que la société a pris pour habitude de gonfler ses revenus. Au lieu des 220 millions de dollars annoncés, Builder.ai n’en aurait généré que 50.

Une enquête du Times of India a finalement révélé que la quasi-totalité du travail  attribué à Natasha était en fait réalisé par 700 ingénieurs indiens, qui répondaient manuellement aux requêtes des clients tout en maintenant l’illusion d’une automatisation poussée. Des témoignages d’anciens employés ont confirmé que le dispositif reposait sur des instructions précises pour mimer l’instantanéité et la pertinence d’un chatbot : délais de livraison artificiels, réponses standardisées, interdiction d’utiliser un jargon technique susceptible de trahir la nature humaine du service. Tout était pensé pour créer l’illusion du parfait chatbot.

Une enquête ouverte

La découverte de cette fraude a précipité la chute de Builder.ai. Incapable de faire face à ses obligations financières – notamment 85 millions de dollars dus à Amazon et 30 millions à Microsoft pour des services cloud – la start-up a licencié près de 1 000 employés et s’est placée en procédure d’insolvabilité au Royaume-Uni, en Inde et aux États-Unis. Les autorités américaines ont ouvert une enquête fédérale, réclamant l’accès aux comptes et aux listes de clients de l’entreprise.

S’il fait date dans l’industrie de l’IA, le cas Builder.ai s’inscrit dans une tendance plus large d’AI washing : la survalorisation ou la falsification des capacités d’intelligence artificielle par des entreprises désireuses de capter l’attention des investisseurs et des clients. Cette pratique, qui va de l’exagération marketing à la tromperie pure, touche de nombreux secteurs, de la finance à la grande consommation, et commence à attirer l’attention des régulateurs. L’IA est devenu un argument de vente, et il n’est plus rare de le voir utilisé à tout-va par les discours marketing.

🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Source : Times of India

Mode