Anthropic hausse le ton. Sur son site, le créateur de Claude affirme avoir identifié des opérations « à l’échelle industrielle » menées par DeepSeek, Moonshot et MiniMax. L’objectif aurait été d’exploiter les réponses de Claude pour entraîner leurs propres modèles plus rapidement et à moindre coût.
La tentation du raccourci technologique
Selon l’entreprise, ces trois acteurs auraient généré plus de 16 millions d’échanges à travers 24.000 comptes frauduleux, en contournant les conditions d’utilisation et les restrictions d’accès régionales. La technique en question, la « distillation », est pourtant bien connue dans l’écosystème IA : un modèle moins avancé « apprend » à partir des sorties d’un modèle plus performant. Anthropic le reconnaît d’ailleurs : il s’agit d’une méthode « largement utilisée et légitime » lorsqu’elle est pratiquée en interne.
Le problème, explique la société, survient quand un concurrent s’en sert pour « acquérir des capacités puissantes en une fraction du temps et du coût ». Les campagnes observées auraient ciblé en priorité les fonctionnalités les plus distinctives de Claude : raisonnement pour les agents IA, utilisation d’outils, programmation.
Le tableau dressé ressemble à une mécanique bien huilée : faux comptes, services proxy revendant l’accès à Claude, architectures distribuées capables de remplacer instantanément un compte bloqué. L’un de ces réseaux aurait même géré plus de 20.000 comptes simultanément. L’argument d’Anthropic ne se limite pas au terrain commercial. L’entreprise évoque des « risques significatifs pour la sécurité nationale», elle estime en effet que des modèles distillés illicitement pourraient perdre des garde-fous intégrés par les laboratoires américains, notamment contre certains usages malveillants.
Dans la foulée, la société promet de renforcer sa riposte avec des systèmes de détection des comportements, le partage d’indicateurs avec d’autres laboratoires et des fournisseurs cloud, des vérifications d’accès accrues et des contre-mesures au niveau des API et des modèles. Une coordination de l’ensemble du secteur serait aussi indispensable.
Mais voilà, Anthropic a beau jeu de pointer du doigt ses rivaux chinois. L’ensemble de l’industrie de l’IA fait face depuis toujours à des accusations répétées de pillage de contenus protégés par le droit d’auteur sans autorisation explicite. Cela peut être des articles de presse, des œuvres littéraires, des images, de la musique… Anthropic fait d’ailleurs l’objet de plaintes de la part d’éditeurs de musique qui l’accusent d’avoir utilisé des copies illégales de chansons pour entraîner Claude. D’autres géants du secteur sont engagés dans des batailles judiciaires similaires.
🟣 Pour ne manquer aucune news sur le Journal du Geek, suivez-nous sur Google et sur notre canal WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.