sfy39587stp17
Aller au contenu principal

L'IA Claude sur liste noire : Anthropic défie l'administration Trump

La start-up californienne Anthropic, à l'origine de l'intelligence artificielle Claude, a été officiellement classée « à risque pour la chaîne d'approvisionnement » par le département de la Défense américain le 5 mars 2026. Une décision sans précédent qui marque un tournant historique dans les relations entre la Silicon Valley et l'administration Trump.

C'est une première dans l'histoire des États-Unis. Une entreprise technologique américaine se retrouve sur la même liste que les géants chinois Huawei et le russe Kaspersky, jusqu'ici réservée aux « adversaires étrangers ». Anthropic, valorisée à plusieurs dizaines de milliards de dollars et soutenue par Amazon et Google, voit ses contrats fédéraux s'évaporer du jour au lendemain.

Donald Trump n'a pas mâché ses mots sur Truth Social : « J'ORDONNE à CHAQUE Agence Fédérale du Gouvernement des États-Unis de CESSER IMMÉDIATEMENT toute utilisation de la technologie d'Anthropic. NOUS déciderons du destin de notre Pays — PAS une entreprise d'IA radicale de gauche hors de contrôle. »

Un bras de fer sur l'éthique de l'IA militaire

L'origine du conflit remonte aux négociations autour d'un contrat de 200 millions de dollars signé en juillet 2025 avec le Pentagone. Le département de la Défense exigeait un accès sans restriction aux modèles Claude pour « toutes fins légales ». Anthropic a refusé, posant deux lignes rouges : pas de surveillance de masse sur le territoire américain, et pas d'armes autonomes létales sans intervention humaine.

« La Constitution ne permet pas au gouvernement d'utiliser son pouvoir considérable pour punir une entreprise pour son discours protégé », affirme Anthropic dans sa plainte déposée lundi devant un tribunal fédéral. L'entreprise invoque la violation de sa liberté d'expression et de son droit à une procédure régulière.

Les conséquences sont immédiates. Le département du Trésor a annoncé lundi la résiliation de son partenariat. Le département d'État et celui de la Santé ont ordonné à leurs employés d'abandonner Claude. L'armée dispose de six mois pour éliminer progressivement l'IA. Lockheed Martin a confirmé se tourner vers d'autres fournisseurs.

Paradoxe : la disgrâce fédérale propulse Claude en tête des téléchargements

Ironie de la situation : tandis que Washington lui ferme ses portes, le grand public plébiscite Claude. Plus d'un million de nouvelles inscriptions par jour cette semaine ont propulsé l'application en tête des téléchargements sur l'App Store et Google Play dans plus de 20 pays, devant ChatGPT d'OpenAI et Gemini de Google.

La solidarité s'organise aussi dans la Silicon Valley. Plus de 875 employés de Google et OpenAI ont signé une lettre ouverte soutenant la position d'Anthropic sur la sécurité de l'IA. Une mobilisation rare qui témoigne des tensions profondes entre l'industrie technologique et les ambitions militaires de l'administration.

Dario Amodei, PDG d'Anthropic, tente de calmer le jeu. Lors d'une conférence Morgan Stanley mardi, il a indiqué rester en contact avec le département de la Défense pour « désamorcer le conflit » et « trouver un accord ». Un optimisme prudent alors que les documents judiciaires révèlent que cette mise sur liste noire pourrait amputer le chiffre d'affaires 2026 de l'entreprise de plusieurs milliards de dollars.

Cette crise pose une question fondamentale : où placer le curseur entre les ambitions géopolitiques américaines en matière d'IA et les garde-fous éthiques ? La réponse des tribunaux américains dans les prochaines semaines pourrait redéfinir les règles du jeu pour toute l'industrie de l'intelligence artificielle.

sfy39587stp16