Message de BlockBeats, le 28 février : le Pentagone américain a exigé qu'Anthropic supprime les restrictions de sécurité intégrées à Claude concernant les « robots tueurs autonomes » et la « surveillance de masse », sous peine de perdre un contrat de 200 millions de dollars et d'être classé comme risque pour la chaîne d'approvisionnement. Anthropic a refusé de fournir une promesse écrite, et Dario Amodei, cofondateur et PDG, a répondu avec fermeté : « Ces menaces ne changeront pas notre position ; nous ne pouvons pas accepter leur demande sur le plan moral. »
Le PDG d'OpenAI, Sam Altman, a soutenu Anthropic lors d'une émission CNBC : « Je pense que le Pentagone ne devrait pas faire de telles menaces. Bien que j'aie de nombreuses divergences avec Anthropic, ils sont dignes de confiance dans le domaine de la sécurité. » Les deux plus grands concurrents du secteur de l'intelligence artificielle viennent de tracer publiquement cette ligne rouge, alors que la semaine dernière, lors du sommet sur l'IA en Inde, Sam Altman et Dario Amodei avaient refusé de se serrer la main lors d'une photo. Par ailleurs, 70 employés d'OpenAI ont signé une lettre ouverte intitulée « Nous ne nous diviserons pas », et des ingénieurs de Google ont également exprimé leur soutien.
Trump a répondu fermement : J'ai ordonné à chaque agence fédérale du gouvernement américain de cesser immédiatement l'utilisation des technologies d'Anthropic. Nous n'en avons pas besoin, nous ne le voulons pas, et nous n'aurons plus aucun commerce avec eux ! Pour les agences, comme le Département de la Défense, qui utilisent les produits d'Anthropic, un délai de six mois sera accordé pour une élimination progressive. Anthropic ferait mieux de bien se comporter pendant cette période de transition et d'apporter son aide ; sinon, j'utiliserai tout le pouvoir du président pour les contraindre à se conformer, et ils feront face à de lourdes conséquences civiles et pénales.
