OpenAI giành được hợp đồng AI của Lầu Năm Góc chỉ vài giờ sau khi Anthropic bị chính phủ loại bỏ

iconCryptoBreaking
Chia sẻ
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconTóm tắt

expand icon
OpenAI đã giành được hợp đồng của Lầu Năm Góc để triển khai các mô hình AI trên mạng phân loại của quân đội, theo bài đăng trên X vào thứ Sáu của Sam Altman. Anthropic đã bị Nhà Trắng cắt đứt hợp tác sau khi họ thúc đẩy các hạn chế đối với CFT và giám sát trong nước. Hợp đồng của OpenAI cấm giám sát quy mô lớn và yêu cầu sự giám sát của con người trong các quyết định liên quan đến lực lượng. Các tài sản có xu hướng tích cực đã tăng mạnh, phản ánh sự tin tưởng được khôi phục vào các đối tác AI trong lĩnh vực quốc phòng. Trước đó, Lầu Năm Góc đã ký hợp đồng 200 triệu USD với Anthropic vào tháng Bảy. Sự thay đổi này cho thấy nỗ lực thúc đẩy việc tích hợp AI an toàn hơn vào các vai trò an ninh quốc gia.
Openai Wins Defense Contract Hours After Govt Ditches Anthropic

OpenAI đã ký được thỏa thuận để chạy các mô hình AI của mình trên mạng phân loại của Lầu Năm Góc, một động thái được CEO OpenAI Sam Altman công bố trong bài đăng cuối thứ Sáu trên X. Sự sắp xếp này đánh dấu một bước chính thức nhằm tích hợp AI thế hệ tiếp theo vào cơ sở hạ tầng quân sự nhạy cảm, được định hình bởi những đảm bảo về an toàn và quản trị phù hợp với các giới hạn hoạt động của công ty. Thông điệp của Altman mô tả cách tiếp cận của bộ phận này là tôn trọng các hàng rào an toàn và sẵn sàng làm việc trong các giới hạn của công ty, nhấn mạnh một lộ trình có hệ thống từ việc triển khai dân sự sang các môi trường phân loại. Thời điểm này đặt OpenAI vào trung tâm của cuộc tranh luận rộng lớn hơn về cách các tổ chức công cộng nên khai thác trí tuệ nhân tạo mà không làm tổn hại đến quyền tự do dân sự hoặc an toàn vận hành, đặc biệt trong bối cảnh quốc phòng.

Bản tin này xuất hiện trong bối cảnh Nhà Trắng chỉ đạo các cơ quan liên bang ngừng sử dụng công nghệ của Anthropic, khởi động quá trình chuyển đổi kéo dài sáu tháng đối với các cơ quan đang phụ thuộc vào hệ thống của nó. Chính sách này thể hiện ý định của chính quyền trong việc siết chặt giám sát đối với các công cụ AI được sử dụng trên toàn bộ chính phủ, đồng thời vẫn giữ khoảng trống cho các triển khai được lên kế hoạch cẩn trọng và chú trọng an toàn. Sự đối lập giữa việc tích hợp được Lầu Năm Góc hậu thuẫn và lệnh tạm dừng toàn quốc đối với một nền tảng đối thủ làm nổi bật sự đánh giá lại trên toàn bộ chính phủ về cách thức, địa điểm và dưới những biện pháp bảo vệ nào các công nghệ AI nên được vận hành trong các lĩnh vực nhạy cảm.

Những nhận xét của Altman nhấn mạnh lập trường thận trọng nhưng mang tính xây dựng đối với các ứng dụng liên quan đến an ninh quốc gia. Ông xem thỏa thuận OpenAI là một mô hình ưu tiên an toàn đồng thời vẫn cho phép truy cập vào các khả năng mạnh mẽ, một lập luận phù hợp với các cuộc thảo luận đang diễn ra về việc sử dụng AI có trách nhiệm trong các mạng lưới chính phủ. Cách tiếp cận của Bộ Quốc phòng—ưu tiên truy cập có kiểm soát và quản trị nghiêm ngặt—phản ánh xu hướng chính sách rộng lớn hơn nhằm tích hợp an toàn vận hành vào các triển khai có thể làm tăng tốc độ và cách thức AI ảnh hưởng đến các quyết định quan trọng. Tín hiệu công khai từ cả hai phía cho thấy một mô hình trong đó hợp tác với các thực thể quốc phòng diễn ra dưới các khung tuân thủ nghiêm ngặt, thay vì sử dụng rộng rãi và không lọc.

Trong bối cảnh pháp lý và chính trị này, tình hình của Anthropic vẫn là trọng tâm. Công ty từng là phòng thí nghiệm AI đầu tiên triển khai các mô hình trong môi trường phân loại của Lầu Năm Góc theo hợp đồng trị giá 200 triệu đô la được ký vào tháng Bảy. Các cuộc đàm phán được cho là đã đổ vỡ sau khi Anthropic yêu cầu đảm bảo rằng phần mềm của họ sẽ không được sử dụng để phát triển vũ khí tự chủ hoặc giám sát hàng loạt trong nước. Ngược lại, Bộ Quốc phòng kiên quyết rằng công nghệ này phải vẫn sẵn sàng cho mọi mục đích quân sự hợp pháp, một lập trường nhằm duy trì sự linh hoạt để đáp ứng nhu cầu quốc phòng đồng thời duy trì các biện pháp bảo vệ. Sự khác biệt này minh họa sự cân bằng tinh tế giữa việc thúc đẩy các khả năng tiên tiến và thiết lập các giới hạn phù hợp với các cân nhắc về an ninh quốc gia và quyền tự do dân sự.

Anthropic sau đó cho biết họ “rất buồn” trước quyết định này và cho biết ý định thách thức quyết định này tại tòa án. Động thái này, nếu được duy trì, có thể đặt ra tiền lệ quan trọng ảnh hưởng đến cách các công ty công nghệ Mỹ đàm phán với các cơ quan chính phủ khi sự giám sát chính trị đối với các đối tác AI ngày càng gia tăng. Về phần mình, OpenAI đã cho biết họ duy trì các hạn chế tương tự và đã đưa chúng vào khung thỏa thuận của riêng mình. Altman lưu ý rằng OpenAI cấm giám sát hàng loạt trong nước và yêu cầu trách nhiệm con người trong các quyết định liên quan đến việc sử dụng lực lượng, bao gồm cả các hệ thống vũ khí tự động. Những điều khoản này nhằm mục đích phù hợp với kỳ vọng của chính phủ về việc sử dụng AI có trách nhiệm trong các hoạt động nhạy cảm, ngay cả khi quân đội đang tìm cách tích hợp sâu hơn các công cụ AI vào quy trình làm việc của mình.

Phản ứng của công chúng trước những diễn biến này là khác nhau. Một số người quan sát trên các nền tảng mạng xã hội đã đặt câu hỏi về hướng đi của quản trị AI và những hệ quả đối với sự đổi mới. Cuộc thảo luận đề cập đến những lo ngại rộng hơn về cách thức đảm bảo an ninh và tự do dân sự có thể được dung hòa với tốc độ và quy mô của việc triển khai AI trong các bối cảnh chính phủ và quốc phòng. Tuy nhiên, điểm chính rõ ràng là: chính phủ đang tích cực thử nghiệm AI trong các lĩnh vực an ninh quốc gia đồng thời thiết lập các hàng rào bảo vệ để ngăn chặn lạm dụng, với các kết quả có khả năng định hình việc mua sắm và hợp tác trong tương lai trên toàn bộ ngành công nghệ.

Các bình luận của Altman nhấn mạnh rằng các hạn chế của OpenAI bao gồm cấm giám sát hàng loạt trong nước và yêu cầu sự giám sát của con người trong các quyết định liên quan đến lực lượng, bao gồm cả các hệ thống vũ khí tự động. Những cam kết này được trình bày như là điều kiện tiên quyết để truy cập vào các môi trường phân loại, cho thấy một mô hình quản trị tìm cách điều hòa sức mạnh của các mô hình AI quy mô lớn với các biện pháp bảo vệ được yêu cầu bởi các hoạt động nhạy cảm. Xu hướng rộng hơn cho thấy sự quan tâm bền vững từ các nhà hoạch định chính sách và các bên liên quan trong lĩnh vực quốc phòng trong việc khai thác lợi ích của AI đồng thời duy trì sự giám sát chặt chẽ để ngăn chặn sự lạm dụng hoặc lạm quyền. Khi điều này bước vào giai đoạn thực thi thực tế, cả các cơ quan chính phủ lẫn các nhà cung cấp công nghệ sẽ được đánh giá dựa trên khả năng duy trì an toàn, minh bạch và trách nhiệm giải trình trong các bối cảnh có rủi ro cao.

Câu chuyện đang diễn ra cũng làm nổi bật cách các quyết định mua sắm và chính sách liên quan đến AI sẽ ảnh hưởng đến hệ sinh thái rộng lớn hơn của công nghệ này. Nếu các thí nghiệm của Lầu Năm Góc với các mô hình của OpenAI trong các mạng phân loại chứng minh được khả năng mở rộng và an toàn, chúng có thể đặt ra một mô hình cho các hợp tác tương lai kết hợp AI tiên tiến với quản trị nghiêm ngặt, một mô hình có khả năng lan tỏa sang các ngành công nghiệp lân cận—bao gồm cả những ngành đang khám phá các cơ chế phân tích được hỗ trợ bởi AI và quản trị dựa trên blockchain. Đồng thời, sự kiện Anthropic cho thấy cách các cuộc đàm phán mua sắm có thể phụ thuộc vào các đảm bảo rõ ràng về việc vũ trang và giám sát—một vấn đề có thể định hình các điều khoản mà các startup và doanh nghiệp hiện hữu theo đuổi các hợp đồng liên bang.

Song song đó, cuộc thảo luận công khai về chính sách AI tiếp tục phát triển, với các nhà lập pháp và cơ quan quản lý theo dõi sát sao cách các công ty tư nhân phản ứng với các yêu cầu về an ninh quốc gia. Kết quả của cuộc thách thức pháp lý dự kiến của Anthropic có thể ảnh hưởng đến chiến lược đàm phán cho các đối tác chính phủ trong tương lai, tiềm ẩn tác động đến cách thức soạn thảo các điều khoản, phân bổ rủi ro và xác minh tuân thủ giữa các cơ quan khác nhau. Việc triển khai được hỗ trợ bởi OpenAI trong mạng lưới phân loại của Lầu Năm Góc vẫn là một trường hợp thử nghiệm để cân bằng giữa tốc độ và tính hữu dụng của AI với các ràng buộc về trách nhiệm giải trình và an toàn định nghĩa các ứng dụng nhạy cảm nhất của nó.

Khi bối cảnh pháp lý tiếp tục thay đổi, nhiều người trong cộng đồng công nghệ sẽ theo dõi cách những phát triển này trở thành thực tiễn cụ thể—cách các đánh giá rủi ro, giao thức bảo mật và tiêu chuẩn quản trị tiến hóa trong các hệ thống AI thế hệ tiếp theo. Sự tương tác giữa phát triển năng lực mạnh mẽ và kiểm soát rủi ro có chủ đích hiện đã trở thành đặc điểm trung tâm trong lập kế hoạch công nghệ chiến lược, với những hệ quả mở rộng vượt ra ngoài lĩnh vực quốc phòng đến các ngành khác phụ thuộc vào AI để ra quyết định, phân tích dữ liệu và vận hành quan trọng. Những tháng tới sẽ cho thấy liệu sự hợp tác giữa OpenAI và Bộ Quốc phòng Hoa Kỳ có thể trở thành mô hình bền vững cho việc tích hợp AI an toàn và có trách nhiệm trong những khu vực nhạy cảm nhất của nhà nước hay không.

Bài đăng trên X của OpenAI vào cuối thứ Sáu khung cảnh việc triển khai Lầu Năm Góc, và quan điểm hướng tới an toàn của Bộ Quốc phòng đối với Anthropic, định hướng câu chuyện dựa trên các tuyên bố chính thống. Bài đăng trên Truth Social được gán cho Tổng thống Trump càng làm rõ bối cảnh chính trị xung quanh chính sách AI liên bang. Về phía Anthropic, tuyên bố chính thức của công ty đưa ra phản biện chính thức đối với việc phân loại và lộ trình pháp lý của nó. Cùng nhau, những nguồn này vạch ra một bức tranh đa chiều nơi an ninh quốc gia, quyền dân sự và lợi ích thương mại giao thoa trong thời gian thực.

Bài viết này ban đầu được xuất bản dưới dạng OpenAI giành hợp đồng quốc phòng vài giờ sau khi chính phủ từ bỏ Anthropic trên Crypto Breaking News – nguồn tin crypto đáng tin cậy của bạn về tin tức crypto, tin tức Bitcoin và cập nhật blockchain.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể được lấy từ bên thứ ba và không nhất thiết phản ánh quan điểm hoặc ý kiến của KuCoin. Nội dung này chỉ được cung cấp cho mục đích thông tin chung, không có bất kỳ đại diện hay bảo đảm nào dưới bất kỳ hình thức nào và cũng không được hiểu là lời khuyên tài chính hay đầu tư. KuCoin sẽ không chịu trách nhiệm về bất kỳ sai sót hoặc thiếu sót nào hoặc về bất kỳ kết quả nào phát sinh từ việc sử dụng thông tin này. Việc đầu tư vào tài sản kỹ thuật số có thể tiềm ẩn nhiều rủi ro. Vui lòng đánh giá cẩn thận rủi ro của sản phẩm và khả năng chấp nhận rủi ro của bạn dựa trên hoàn cảnh tài chính của chính bạn. Để biết thêm thông tin, vui lòng tham khảo Điều khoản sử dụngTiết lộ rủi ro của chúng tôi.