Anthropic a obtenu une importante victoire judiciaire préliminaire après qu’un juge fédéral de San Francisco ait accordé à la start-up d’intelligence artificielle une injonction provisoire, bloquant temporairement l’administration Trump d’appliquer des mesures qui avaient placé l’entreprise sur une liste noire et restreint l’utilisation de ses modèles Claude par les agences fédérales.
La juge fédérale des États-Unis Rita Lin a estimé qu'Anthropic avait démontré une probabilité de succès sur les éléments essentiels de son affaire, affirmant que les actions du gouvernement semblaient plus punitives que fondées sur la sécurité. Reuters reported que Lin a déclaré que punir Anthropic pour avoir attiré l'attention du public sur la position contractuelle du gouvernement semblait constituer une rétorsion illégale au titre du Premier Amendement.
La mesure interdit à l'administration, pour l'instant, de mettre en œuvre ou d'appliquer la directive du président Donald Trump contre Anthropic et de poursuivre les efforts du Pentagone pour considérer l'entreprise comme un risque pour la chaîne d'approvisionnement de la sécurité nationale. Reuters a rapporté que la décision est suspendue pendant sept jours afin de laisser au gouvernement le temps de faire un appel.
Le litige a commencé après qu'Anthropic ait refusé de supprimer entièrement les restrictions de sécurité de Claude lors des négociations avec le Pentagone. L'entreprise a déclaré qu'elle ne accepterait pas d'utilisations liées à des armes entièrement autonomes sans supervision humaine ni à la surveillance de masse des Américains, tout en restant ouverte à un travail plus large avec le gouvernement.
Trump a ensuite agi à la fin février pour ordonner aux agences fédérales de cesser d'utiliser la technologie d'Anthropic, tandis que le secrétaire à la Défense Pete Hegseth a classé séparément l'entreprise comme un risque pour la chaîne d'approvisionnement, une désignation qui pourrait obliger les sous-traitants de la défense à éviter Claude dans les travaux militaires. Anthropic a soutenu qu'il s'agissait de la première fois qu'une telle désignation était publiquement utilisée contre une entreprise américaine de cette manière.
Les enjeux sont élevés car Anthropic est devenu un fournisseur d'IA important pour le gouvernement américain. L'entreprise avait un contrat de 200 millions de dollars avec le Pentagone et avait déjà déployé des modèles sur les réseaux classifiés du Département de la Défense avant que la relation ne se rompe en raison de termes d'utilisation.
L'administration Trump s'est appuyée sur des autorités juridiques distinctes pour la liste noire du Pentagone et pour les restrictions plus larges en matière de marchés publics fédéraux, obligeant Anthropic à les contester devant des tribunaux différents. Une affaire distincte liée aux marchés publics civils progresse toujours à Washington.
