Recurso da Anthropic falha, Pentágono mantém rótulo de "risco na cadeia de suprimentos"

iconKuCoinFlash
Compartilhar
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconResumo

expand icon
O Tribunal de Apelações dos Estados Unidos para o Distrito de Columbia rejeitou o pedido de emergência da Anthropic para bloquear a designação do Pentágono de seus modelos de IA como risco na cadeia de suprimentos relacionado à CFT. O painel decidiu que o controle do governo sobre a aquisição de IA durante conflitos ativos supera os danos potenciais à empresa. A disputa começou em julho de 2025 com a tentativa de implantar o Claude em redes classificadas, e as negociações falharam em fevereiro de 2026. A Anthropic recusou-se a permitir que seus modelos fossem usados em armas letais ou vigilância em massa. O presidente Trump proibiu então o uso federal dos produtos da Anthropic, levando a uma ação judicial. Um tribunal da Califórnia suspendeu a proibição, mas a Anthropic teve que processar em ambos os tribunais, em Washington, D.C., e na Califórnia. O tribunal de apelação disse que o caso deve ser acelerado, reconhecendo ativos de risco e potencial dano à empresa. O procurador-geral interino Todd Blanche chamou a decisão de vitória para a prontidão militar.

Odaily Planet Daily News: O Tribunal de Apelações do Distrito de Columbia, EUA, rejeitou o pedido urgente da Anthropic para suspender a classificação do Departamento de Defesa dos EUA como risco à cadeia de suprimentos de segurança nacional. Um painel de três juízes decidiu na quarta-feira que o interesse do governo em controlar a aquisição de tecnologias de IA durante conflitos militares ativos prevalece sobre os possíveis danos financeiros ou de reputação à Anthropic.

O conflito surgiu de um contrato firmado em julho de 2025 entre a Anthropic e o Pentágono para implantar seu modelo de IA, Claude, em redes classificadas. As negociações se romperam em fevereiro deste ano, quando o governo exigiu que a Anthropic permitisse o uso ilimitado do Claude pelas forças armadas, enquanto a Anthropic se recusou a permitir que sua tecnologia fosse utilizada em armas autônomas letais ou em monitoramento interno em larga escala de cidadãos americanos. Em finais de fevereiro, o presidente dos Estados Unidos, Trump, ordenou que todos os órgãos federais interrompessem o uso dos produtos da Anthropic, e a empresa processou o governo Trump em março.

O Tribunal Distrital dos Estados Unidos para o Distrito Norte da Califórnia anteriormente emitiu uma ordem de restrição preliminar, suspendendo temporariamente a ordem de Trump. No entanto, devido às disposições da Lei de Aquisição Federal, a Anthropic deve apresentar ações separadas no tribunal distrital da Califórnia e no Tribunal de Apelações do Distrito de Columbia. O tribunal de apelações decidiu reconhecer que a Anthropic pode sofrer danos irreparáveis significativos na ausência de uma suspensão e declarou que o caso deve ser acelerado. O procurador-geral interino Todd Blanche chamou a decisão de "grande vitória para a capacidade de prontidão militar".

Aviso legal: as informações nesta página podem ter sido obtidas de terceiros e não refletem necessariamente os pontos de vista ou opiniões da KuCoin. Este conteúdo é fornecido apenas para fins informativos gerais, sem qualquer representação ou garantia de qualquer tipo, nem deve ser interpretado como aconselhamento financeiro ou de investimento. A KuCoin não é responsável por quaisquer erros ou omissões, ou por quaisquer resultados do uso destas informações. Os investimentos em ativos digitais podem ser arriscados. Avalie cuidadosamente os riscos de um produto e a sua tolerância ao risco com base nas suas próprias circunstâncias financeiras. Para mais informações, consulte nossos termos de uso e divulgação de risco.