L'appel d'Anthropic échoue, le Pentagone maintient l'étiquette « risque de chaîne d'approvisionnement »

iconKuCoinFlash
Partager
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRésumé

expand icon
La Cour d'appel des États-Unis pour le district de Columbia a rejeté la demande d'urgence d'Anthropic visant à bloquer la désignation du Pentagone de ses modèles d'IA comme un risque pour la chaîne d'approvisionnement liée à la CFT. Le panel a jugé que le contrôle du gouvernement sur l'achat d'IA pendant un conflit actuel prime sur les dommages potentiels pour l'entreprise. Le litige a commencé en juillet 2025 concernant le déploiement de Claude sur des réseaux classifiés, et les négociations se sont brisées en février 2026. Anthropic a refusé que ses modèles soient utilisés dans des armes létales ou une surveillance de masse. Le président Trump a ensuite interdit l'utilisation fédérale des produits d'Anthropic, entraînant une poursuite judiciaire. Un tribunal de Californie a suspendu cette interdiction, mais Anthropic a dû poursuivre des affaires devant les tribunaux de Washington et de Californie. La cour d'appel a déclaré que l'affaire devait être traitée en priorité, reconnaissant les actifs à risque et les dommages potentiels pour l'entreprise. Le procureur général par intérim Todd Blanche a qualifié cette décision d'avantage pour la préparation militaire.

Odaily Planet Daily : La Cour d'appel du district de Columbia aux États-Unis a rejeté la demande urgente d'Anthropic visant à suspendre la désignation par le Département de la Défense américain comme risque pour la chaîne d'approvisionnement nationale. Un collège de trois juges a statué mercredi que les intérêts du gouvernement à contrôler l'achat de technologies d'IA pendant un conflit militaire en cours priment sur les dommages financiers ou réputationnels que pourrait subir Anthropic.

Ce différend découle d'un contrat conclu en juillet 2025 entre Anthropic et le Pentagone pour déployer son modèle d'IA Claude sur des réseaux classifiés. Les négociations ont échoué en février de cette année, le gouvernement exigeant qu'Anthropic autorise les forces armées à utiliser Claude sans restriction, tandis qu'Anthropic s'est opposée à ce que sa technologie soit utilisée dans des armes autonomes mortelles ou pour une surveillance massive de citoyens américains sur le territoire national. Le président américain Trump a ordonné fin février que toutes les agences fédérales cessent d'utiliser les produits d'Anthropic, et Anthropic a ensuite poursuivi le gouvernement Trump en mars.

La cour fédérale de district du nord de la Californie avait précédemment émis une ordonnance d'interdiction provisoire suspendant temporairement l'instruction de Trump. Toutefois, en raison des dispositions de la loi fédérale sur les marchés publics, Anthropic doit déposer des poursuites à la fois devant la cour de district de Californie et la cour d'appel du district de Columbia. La cour d'appel a reconnu qu'Anthropic risquait de subir un préjudice irréparable en l'absence d'une suspension, et a déclaré que l'affaire devait être traitée en urgence. Le procureur général adjoint des États-Unis, Todd Blanche, a qualifié cette décision de « grande victoire pour la capacité de préparation militaire ».

Clause de non-responsabilité : les informations sur cette page peuvent avoir été obtenues auprès de tiers et ne reflètent pas nécessairement les points de vue ou opinions de KuCoin. Ce contenu est fourni à titre informatif uniquement, sans aucune représentation ou garantie d’aucune sorte, et ne doit pas être interprété comme un conseil en investissement. KuCoin ne sera pas responsable des erreurs ou omissions, ni des résultats résultant de l’utilisation de ces informations. Les investissements dans les actifs numériques peuvent être risqués. Veuillez évaluer soigneusement les risques d’un produit et votre tolérance au risque en fonction de votre propre situation financière. Pour plus d’informations, veuillez consulter nos conditions d’utilisation et divulgation des risques.