Anthropic accuse DeepSeek, Moonshot et MiniMax de distillation industrielle de Claude
Anthropic, créateur du modèle d'intelligence artificielle Claude, a publié lundi 23 février un rapport accusant trois laboratoires chinois — DeepSeek, Moonshot AI et MiniMax — d'avoir mené des campagnes de « distillation à échelle industrielle » pour siphonner les capacités de son modèle. Au total, plus de 16 millions d'échanges auraient été générés via quelque 24 000 comptes frauduleux, en violation des conditions d'utilisation et des restrictions géographiques d'accès à Claude.
La distillation est une technique qui consiste à entraîner un modèle moins performant à partir des réponses d'un modèle plus puissant. Si cette méthode est couramment utilisée de manière légitime par les entreprises d'IA pour créer des versions allégées de leurs propres modèles, Anthropic affirme qu'elle a été détournée par ces trois laboratoires pour acquérir des capacités avancées « en une fraction du temps et du coût qu'il aurait fallu pour les développer de manière indépendante ».
Les chiffres révélés par Anthropic dessinent une opération d'envergure. MiniMax concentre l'essentiel de l'activité avec plus de 13 millions d'échanges ciblant le codage agentique et l'orchestration d'outils. Moonshot AI totalise 3,4 millions d'échanges orientés vers le raisonnement agentique, la vision par ordinateur et l'analyse de données. DeepSeek, avec 150 000 échanges, se serait concentré sur les capacités de raisonnement fondamental et la création de modèles de récompense pour l'apprentissage par renforcement.
Un réseau de comptes coordonnés pour contourner les restrictions
Selon Anthropic, les trois laboratoires ont utilisé un schéma similaire : des services commerciaux de revente d'accès aux modèles d'IA occidentaux, combinés à ce que l'entreprise appelle des « clusters hydra » — des réseaux de milliers de comptes coordonnés répartissant le trafic entre différentes clés API et fournisseurs cloud. Cette architecture leur aurait permis de contourner les restrictions géographiques limitant l'accès commercial à Claude en Chine.
L'attribution repose sur l'analyse des métadonnées des requêtes. Anthropic affirme avoir pu relier les comptes de DeepSeek à des chercheurs identifiés du laboratoire, tandis que l'activité de Moonshot a été rattachée aux profils publics de membres de sa direction. Pour MiniMax, l'entreprise a croisé les indicateurs d'infrastructure avec la feuille de route publique du laboratoire. Un détail révélateur : lorsqu'Anthropic a lancé un nouveau modèle Claude, MiniMax aurait « redirigé près de la moitié de son trafic en 24 heures » pour capter les capacités de la dernière version.
Un enjeu de sécurité nationale au cœur du débat sur les puces IA
Au-delà de la propriété intellectuelle, Anthropic inscrit ces révélations dans un cadre géopolitique. L'entreprise avertit que les modèles issus de distillation illicite pourraient « manquer des garde-fous de sécurité » que les laboratoires américains intègrent à leurs systèmes, créant des risques si ces modèles sont utilisés pour des cyberattaques ou le développement d'armes biologiques. Anthropic va plus loin en affirmant que ces modèles pourraient permettre à des « gouvernements autoritaires de déployer l'IA de pointe pour des opérations cybernétiques offensives, des campagnes de désinformation et la surveillance de masse ».
Ce positionnement n'est pas anodin. Anthropic plaide depuis longtemps pour un renforcement des contrôles à l'exportation de puces IA vers la Chine, et ces accusations arrivent alors que l'administration américaine vient d'autoriser Nvidia à exporter ses puces avancées H200 vers la Chine. « Les attaques par distillation renforcent donc la justification des contrôles à l'exportation », écrit Anthropic, estimant que cette extraction à grande échelle « nécessite l'accès à des puces avancées ».
Anthropic n'est pas seul dans cette démarche. OpenAI avait formulé des accusations similaires plus tôt ce mois-ci, affirmant dans un mémo adressé au Congrès américain avoir observé des tentatives de distillation de la part de DeepSeek. Le même jour que la publication d'Anthropic, Reuters rapportait que les États-Unis avaient trouvé des preuves que DeepSeek entraînait son modèle sur les puces Blackwell de Nvidia, en violation apparente des contrôles à l'exportation.
En réponse, Anthropic annonce quatre mesures défensives : le déploiement de systèmes de détection des schémas de distillation, le partage de renseignements techniques avec d'autres laboratoires et fournisseurs cloud, le renforcement des contrôles d'accès et la mise en place de contre-mesures réduisant l'efficacité des extractions illicites. La commission de la Sécurité intérieure de la Chambre des représentants a par ailleurs demandé au PDG d'Anthropic, Dario Amodei, de répondre à ses questions sur les implications de ces attaques pour la politique technologique américaine.
Aucun des trois laboratoires chinois accusés n'a publiquement répondu aux allégations d'Anthropic. La communauté tech reste divisée : certains pointent l'ironie d'entreprises ayant elles-mêmes entraîné leurs modèles sur des données web se plaignant aujourd'hui de copies, tandis que d'autres y voient une menace réelle pour l'avance technologique américaine.