Anthropic obtuvo una importante victoria judicial inicial después de que un juez federal en San Francisco otorgara la solicitud de la startup de inteligencia artificial para una medida cautelar, bloqueando temporalmente al gobierno de Trump de aplicar acciones que incluyeron a la empresa en una lista negra y restringieron a las agencias federales de usar sus modelos Claude.
La jueza federal de EE. UU. Rita Lin determinó que Anthropic había demostrado una probabilidad de éxito en los aspectos fundamentales de su caso, escribiendo que las acciones del gobierno parecían más punitivas que motivadas por la seguridad. Reuters reported que Lin dijo que sancionar a Anthropic por llamar la atención pública sobre la posición contractual del gobierno parecía ser una represalia ilegal contra la Primera Enmienda.
La orden impide, por ahora, que la administración implemente o haga cumplir la directiva del presidente Donald Trump contra Anthropic y que avance el esfuerzo del Pentágono para tratar a la empresa como un riesgo para la cadena de suministro de seguridad nacional. Reuters informó que la sentencia se suspende por siete días para darle al gobierno tiempo para presentar una apelación.
La disputa comenzó después de que Anthropic se negara a eliminar completamente las restricciones de seguridad de Claude en las negociaciones con el Pentágono. La empresa dijo que no aceptaría usos vinculados a armas completamente autónomas sin supervisión humana ni vigilancia masiva de estadounidenses, aunque permaneció abierta a un mayor trabajo con el gobierno.
Trump luego avanzó a finales de febrero para ordenar a las agencias federales que dejaran de usar la tecnología de Anthropic, mientras que el secretario de Defensa Pete Hegseth etiquetó por separado a la empresa como un riesgo en la cadena de suministro, una designación que podría obligar a los contratistas de defensa a evitar a Claude en trabajos militares. Anthropic argumentó que esta era la primera vez que se utilizaba públicamente una etiqueta así contra una empresa estadounidense de esta manera.
Las apuestas son altas porque Anthropic se ha convertido en un proveedor de IA importante para el gobierno de EE.UU. La empresa tenía un contrato de $200 millones con el Pentágono y ya había implementado modelos en redes clasificadas del Departamento de Defensa antes de que la relación se rompiera por términos de uso.
La administración Trump se basó en autoridades legales separadas para la lista negra del Pentágono y para las restricciones más amplias en la contratación federal, obligando a Anthropic a desafiarlas en diferentes tribunales. Un caso separado relacionado con la contratación gubernamental civil aún está en curso en Washington.
