La apelación de Anthropic falla, el Pentágono mantiene la etiqueta de "riesgo en la cadena de suministro"

iconKuCoinFlash
Compartir
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconResumen

expand icon
La Corte de Apelaciones de EE. UU. para el Distrito de Columbia rechazó la solicitud de emergencia de Anthropic para bloquear la designación del Pentágono de sus modelos de IA como un riesgo para la cadena de suministro relacionado con la CFT. El panel determinó que el control del gobierno sobre la adquisición de IA durante un conflicto activo prevalece sobre el posible daño a la empresa. La disputa comenzó en julio de 2025 por la implementación de Claude en redes clasificadas, y las negociaciones se rompieron en febrero de 2026. Anthropic se negó a permitir que sus modelos se utilizaran en armas letales o vigilancia masiva. El presidente Trump prohibió luego el uso federal de los productos de Anthropic, lo que llevó a una demanda. Un tribunal de California suspendió la prohibición, pero Anthropic tuvo que perseguir casos tanto en los tribunales de D.C. como en California. La corte de apelaciones dijo que el caso debe ser acelerado, reconociendo los activos de riesgo y el posible daño a la empresa. El fiscal general interino Todd Blanche calificó la decisión como una victoria para la preparación militar.

Odaily Planet Daily News: La Corte de Apelaciones del Distrito de Columbia rechazó la moción de emergencia de Anthropic para suspender la clasificación del Departamento de Defensa de Estados Unidos como riesgo para la cadena de suministro de seguridad nacional. Un panel de tres jueces dictaminó el miércoles que el interés del gobierno en controlar la adquisición de tecnologías de IA durante un conflicto militar en curso prevalece sobre los posibles daños financieros o de reputación que Anthropic podría sufrir.

El conflicto surgió del contrato alcanzado en julio de 2025 entre Anthropic y el Pentágono para implementar su modelo de IA, Claude, en redes clasificadas. Las negociaciones se rompieron en febrero de este año, cuando el gobierno exigió a Anthropic que permitiera al ejército un uso ilimitado de Claude, mientras que Anthropic se mantuvo firme en que su tecnología no debía utilizarse en armas autónomas letales ni en la vigilancia masiva interna de ciudadanos estadounidenses. El presidente de EE. UU., Trump, ordenó a finales de febrero que todas las agencias federales dejaran de usar productos de Anthropic, y Anthropic presentó una demanda contra el gobierno de Trump en marzo.

La Corte Federal del Distrito Norte de California anteriormente emitió una orden de restricción preliminar que suspendió temporalmente la orden de Trump. Sin embargo, debido a las disposiciones de la Ley Federal de Adquisiciones, Anthropic debe presentar demandas tanto en la Corte del Distrito de California como en la Corte de Apelaciones del Distrito de Columbia. El tribunal de apelaciones determinó que Anthropic podría sufrir un daño irreparable significativo sin una orden de suspensión y señaló que el caso debe acelerarse. El fiscal general adjunto de EE. UU., Todd Blanche, calificó esta decisión como "una gran victoria para la capacidad de preparación militar".

Descargo de responsabilidad: La información contenida en esta página puede proceder de terceros y no refleja necesariamente los puntos de vista u opiniones de KuCoin. Este contenido se proporciona solo con fines informativos generales, sin ninguna representación o garantía de ningún tipo, y tampoco debe interpretarse como asesoramiento financiero o de inversión. KuCoin no es responsable de ningún error u omisión, ni de ningún resultado derivado del uso de esta información. Las inversiones en activos digitales pueden ser arriesgadas. Evalúa con cuidado los riesgos de un producto y tu tolerancia al riesgo en función de tus propias circunstancias financieras. Para más información, consulta nuestras Condiciones de uso y la Declaración de riesgos.