Thẩm phán liên bang ngăn lệnh cấm và danh sách đen Anthropic của Trump

iconCryptoBriefing
Chia sẻ
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconTóm tắt

expand icon
Một thẩm phán liên bang tại San Francisco đã ngăn chính quyền Trump thực thi danh sách đen chống lại công ty AI Anthropic và cấm các mô hình Claude của nó. Phán quyết này đình chỉ việc thực thi chỉ thị và việc Bộ Quốc phòng xếp Anthropic vào nhóm rủi ro an ninh quốc gia. Tranh chấp nảy sinh sau khi Anthropic từ chối gỡ bỏ các hạn chế an toàn trong các cuộc đàm phán với Bộ Quốc phòng. Chính quyền đã ra lệnh cho các cơ quan ngừng sử dụng công nghệ của họ, với Bộ trưởng Quốc phòng Pete Hegseth gọi đây là rủi ro chuỗi cung ứng. Anthropic, công ty có hợp đồng trị giá 200 triệu USD với Bộ Quốc phòng, cho rằng hành động này vi phạm Tu chính án Thứ Nhất và ảnh hưởng đến thanh khoản và thị trường tiền mã hóa. Khung CFT cũng được nhắc đến trong các cuộc thảo luận quy định liên quan.

Anthropic đã giành được chiến thắng pháp lý quan trọng ban đầu khi một thẩm phán liên bang tại San Francisco chấp thuận yêu cầu của công ty khởi nghiệp AI về lệnh cấm tạm thời, tạm thời ngăn chính quyền Trump thực thi các hành động blacklist công ty và hạn chế các cơ quan liên bang sử dụng các mô hình Claude của họ.

Thẩm phán Liên bang Hoa Kỳ Rita Lin kết luận rằng Anthropic đã cho thấy khả năng thành công trong các phần cốt lõi của vụ án, viết rằng các hành động của chính phủ dường như mang tính trừng phạt hơn là vì lý do an ninh. Reuters reported rằng Lin cho rằng việc trừng phạt Anthropic vì đã thu hút sự chú ý của công chúng vào vị thế hợp đồng của chính phủ dường như là hành vi trả đũa vi phạm Tu chính án Thứ Nhất.

Lệnh cấm hiện tại ngăn chính quyền thực hiện hoặc thi hành chỉ thị của Tổng thống Donald Trump chống lại Anthropic và ngăn nỗ lực của Bộ Quốc phòng nhằm coi công ty này là rủi ro trong chuỗi cung ứng an ninh quốc gia. Reuters báo cáo rằng phán quyết được hoãn trong bảy ngày để chính phủ có thời gian khiếu nại.

Tranh chấp bắt đầu sau khi Anthropic từ chối gỡ bỏ hoàn toàn các hạn chế an toàn đối với Claude trong các cuộc đàm phán với Lầu Năm Góc. Công ty cho biết họ sẽ không đồng ý với các mục đích liên quan đến vũ khí hoàn toàn tự động không có sự giám sát của con người hoặc giám sát hàng loạt người dân Mỹ, ngay cả khi họ vẫn mở cửa cho các công việc rộng hơn với chính phủ.

Sau đó, vào cuối tháng Hai, Trump đã ra lệnh cho các cơ quan liên bang ngừng sử dụng công nghệ của Anthropic, trong khi Bộ trưởng Quốc phòng Pete Hegseth riêng biệt đã xếp công ty này vào danh mục rủi ro chuỗi cung ứng, một danh hiệu có thể buộc các nhà thầu quốc phòng tránh sử dụng Claude trong các công việc quân sự. Anthropic lập luận rằng đây là lần đầu tiên một nhãn như vậy được công khai áp dụng đối với một công ty Mỹ theo cách này.

Mức độ rủi ro rất cao vì Anthropic đã trở thành nhà cung cấp AI quan trọng cho chính phủ Hoa Kỳ. Công ty này từng có hợp đồng trị giá 200 triệu USD với Bộ Quốc phòng và đã triển khai các mô hình trên các mạng phân loại của Bộ Quốc phòng trước khi mối quan hệ bị phá vỡ do bất đồng về điều khoản sử dụng.

Chính quyền Trump dựa vào các cơ sở pháp lý riêng biệt cho danh sách đen của Bộ Quốc phòng và các hạn chế mua sắm liên bang rộng hơn, buộc Anthropic phải thách thức chúng tại các tòa án khác nhau. Một vụ án riêng liên quan đến hợp đồng chính phủ dân sự vẫn đang được tiến hành tại Washington.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể được lấy từ bên thứ ba và không nhất thiết phản ánh quan điểm hoặc ý kiến của KuCoin. Nội dung này chỉ được cung cấp cho mục đích thông tin chung, không có bất kỳ đại diện hay bảo đảm nào dưới bất kỳ hình thức nào và cũng không được hiểu là lời khuyên tài chính hay đầu tư. KuCoin sẽ không chịu trách nhiệm về bất kỳ sai sót hoặc thiếu sót nào hoặc về bất kỳ kết quả nào phát sinh từ việc sử dụng thông tin này. Việc đầu tư vào tài sản kỹ thuật số có thể tiềm ẩn nhiều rủi ro. Vui lòng đánh giá cẩn thận rủi ro của sản phẩm và khả năng chấp nhận rủi ro của bạn dựa trên hoàn cảnh tài chính của chính bạn. Để biết thêm thông tin, vui lòng tham khảo Điều khoản sử dụngTiết lộ rủi ro của chúng tôi.