OpenAI Memperoleh Kontrak AI Pentagon Beberapa Jam Selepas Anthropic Dibuang oleh Kerajaan

iconCryptoBreaking
Kongsi
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRingkasan

expand icon
OpenAI telah memperoleh kontrak Pentagun untuk melaksanakan model AI-nya di rangkaian klasifikasi tentera, menurut pos X Jumaat Sam Altman. Anthropic diputuskan hubungannya oleh Gedung Putih selepas ia mendorong sekatan terhadap CFT dan pengawasan domestik. Perjanjian OpenAI melarang pengawasan masal dan mengwajibkan pengawasan manusia dalam keputusan berkaitan kekuatan. Aset berisiko tinggi meningkat sebagai tindak balas, mencerminkan keyakinan semula terhadap kerjasama pertahanan yang dipimpin AI. Pentagun sebelum ini telah menandatangani perjanjian bernilai $200 juta dengan Anthropic pada Julai. Perubahan ini menandakan usaha untuk mengintegrasikan AI dengan lebih selamat dalam peranan keselamatan negara.
Openai Wins Defense Contract Hours After Govt Ditches Anthropic

OpenAI telah mengikat perjanjian untuk menjalankan model AI-nya di rangkaian sulit Pentagon, satu langkah yang diumumkan oleh CEO OpenAI, Sam Altman, dalam pos akhir Jumaat di X. Perjanjian ini menandakan langkah rasmi untuk memasukkan AI generasi seterusnya ke dalam infrastruktur tentera yang sensitif, dengan jaminan keselamatan dan tatacara yang selari dengan had operasi syarikat. Mesej Altman menggambarkan pendekatan jabatan tersebut sebagai satu yang menghormati palang keselamatan dan bersedia bekerja dalam sempadan syarikat, menekankan laluan sistematik dari penyebaran awam ke persekitaran sulit. Masa pengumuman ini meletakkan OpenAI di pusat perbincangan yang lebih luas mengenai cara institusi awam memanfaatkan kecerdasan buatan tanpa mengorbankan kebebasan sivil atau keselamatan operasi, terutamanya dalam konteks pertahanan.

Berita ini muncul apabila Gedung Putih mengarahkan agensi-agensi persekutuan untuk menghentikan penggunaan teknologi Anthropic, memulakan peralihan selama enam bulan bagi agensi-agensi yang sudah bergantung kepada sistemnya. Dasar ini menunjukkan niat pentadbiran untuk memperketat pengawasan terhadap alat AI yang digunakan di seluruh kerajaan, sambil masih meninggalkan ruang untuk pelaksanaan yang diatur dengan teliti dan berpusat pada keselamatan. Perbandingan antara integrasi yang disokong Pentagun dan jeda sejagat terhadap platform pesaing menonjolkan perhitungan menyeluruh kerajaan mengenai bagaimana, di mana, dan di bawah perlindungan apa teknologi AI seharusnya beroperasi dalam domain sensitif.

Komen Altman menekankan sikap berhati-hati tetapi membangun terhadap aplikasi keselamatan negara. Beliau merangkaikan perjanjian OpenAI sebagai satu yang mengutamakan keselamatan sambil membenarkan akses kepada kemampuan kuat, hujah yang selari dengan perbincangan berterusan mengenai penggunaan AI yang bertanggungjawab dalam rangkaian kerajaan. Pendekatan Jabatan Pertahanan—yang menyukai akses terkawal dan tata tertib yang ketat—mencerminkan dorongan dasar yang lebih luas untuk membina keselamatan operasi ke dalam pelaksanaan yang boleh mempercepatkan di mana dan bagaimana AI mempengaruhi keputusan penting. Isyarat awam dari kedua-dua belah pihak menunjukkan satu model di mana kerjasama dengan entiti pertahanan berjalan di bawah kerangka kepatuhan yang ketat, bukan penggunaan yang luas dan tanpa penyaringan.

Dalam latar belakang peraturan dan politik ini, situasi Anthropic tetap menjadi fokus utama. Syarikat tersebut merupakan lab AI pertama yang melancarkan model di persekitaran sulit Pentagon berdasarkan kontrak bernilai $200 juta yang ditandatangani pada Julai. Perbincangan dilaporkan gagal selepas Anthropic meminta jaminan bahawa perisian mereka tidak akan digunakan untuk senjata autonom atau pengawasan masal domestik. Sebaliknya, Jabatan Pertahanan menekankan bahawa teknologi tersebut harus tetap tersedia untuk semua tujuan tentera yang sah, satu sikap yang dirancang untuk mengekalkan fleksibiliti bagi keperluan pertahanan sambil mempertahankan pengawalan keselamatan. Perbezaan ini menggambarkan keseimbangan halus antara membolehkan kemampuan mutakhir dan menegakkan sempadan yang selari dengan pertimbangan keselamatan negara dan hak sivil.

Anthropic kemudian menyatakan bahawa ia “sangat berduka” terhadap penubuhan tersebut dan menandakan niatnya untuk menantang keputusan itu di mahkamah. Tindakan ini, jika diteruskan, boleh menetapkan preseden penting yang mempengaruhi cara firma teknologi Amerika berunding dengan agensi kerajaan semasa pengawasan politik terhadap perkongsian AI semakin ketat. OpenAI, pihaknya, telah menunjukkan bahawa ia mengekalkan sekatan serupa dan telah memasukkannya ke dalam kerangka perjanjiannya sendiri. Altman mencatat bahawa OpenAI melarang pengawasan massa domestik dan memerlukan tanggungjawab manusia dalam keputusan yang melibatkan penggunaan kekuatan, termasuk sistem senjata automatik. Ketentuan-ketentuan ini dimaksudkan untuk selari dengan harapan kerajaan terhadap penggunaan AI yang bertanggungjawab dalam operasi sensitif, walaupun tentera sedang mengkaji integrasi yang lebih mendalam alat AI ke dalam proses kerjanya.

Tindak balas awam terhadap perkembangan ini adalah bercampur. Sebahagian pemerhati di platform sosial mempertanyakan arah pengurusan AI dan implikasinya terhadap inovasi. Perbincangan ini menyentuh kebimbangan yang lebih luas mengenai bagaimana keselamatan dan kebebasan sivil boleh diselaraskan dengan kelajuan dan skala pelaksanaan AI dalam konteks kerajaan dan pertahanan. Walaupun begitu, kesimpulan utama jelas: kerajaan secara aktif menguji AI dalam ruang keselamatan negara sambil memasang sempadan untuk mencegah penyalahgunaan, dengan kesudahan yang kemungkinan besar akan membentuk pengadaan dan kerjasama masa depan di sektor teknologi.

Komen Altman mengulangi bahawa sekatan OpenAI termasuk larangan terhadap pengawasan masal dalam negara dan keperluan untuk pengawasan manusia dalam keputusan yang melibatkan kekuatan, termasuk sistem senjata automatik. Komitmen-komitmen ini dirangka sebagai syarat-syarat pra-penyediaan akses kepada persekitaran sulit, menandakan model tata kelola yang berusaha menyelaraskan kuasa model AI berskala besar dengan jaminan yang diminta oleh operasi sensitif. Trajektori yang lebih luas menunjukkan minat berterusan di kalangan pembuat dasar dan pemangkin pertahanan untuk memanfaatkan manfaat AI sambil mengekalkan pengawasan ketat untuk mencegah penyalahgunaan atau kesalahan penggunaan. Sebagai peringkat pelaksanaan praktikal bermula, agensi kerajaan dan penyedia teknologi akan dinilai berdasarkan keupayaan mereka untuk mengekalkan keselamatan, transparansi, dan akuntabiliti dalam persekitaran berisiko tinggi.

Cerita yang sedang berkembang juga menekankan bagaimana keputusan pengadaan dan dasar mengenai AI akan mempengaruhi ekosistem teknologi yang lebih luas. Jika eksperimen Pentagon dengan model OpenAI dalam rangkaian terkelas berjaya dibesarkan dan dijamin keselamatannya, ia boleh menjadi contoh untuk kerjasama masa depan yang menggabungkan AI mutakhir dengan tata pentadbiran yang ketat, satu model yang kemungkinan akan merambat ke industri berdekatan—termasuk yang sedang mengkaji analitik bantuan AI dan mekanisme tata pentadbiran berdasarkan blok rantai. Pada masa yang sama, kes Anthropic menunjukkan bagaimana rundingan pengadaan boleh bergantung pada jaminan eksplisit mengenai penggunaan senjata dan pemantauan—isu yang boleh membentuk syarat-syarat di mana permulaan dan penubuhan sedia ada mengejar kontrak kerajaan.

Secara serentak, perbincangan awam mengenai dasar AI terus berkembang, dengan ahli undang-undang dan pengawas memantau rapat bagaimana syarikat swasta menanggapi tuntutan keselamatan negara. Kesudahan cabaran undang-undang yang dimaksudkan oleh Anthropic boleh mempengaruhi buku panduan negosiasi untuk kemitraan kerajaan masa depan, berpotensi mempengaruhi bagaimana tempoh dirumuskan, bagaimana risiko dialokasikan, dan bagaimana pematuhan disahkan di pelbagai agensi. Penghantaran yang dibantu OpenAI di dalam rangkaian sulit Pentagon tetap menjadi kes ujian untuk menyeimbangkan kelajuan dan kegunaan AI dengan batasan tanggungjawab dan keselamatan yang mentakrifkan aplikasi paling sensitifnya.

Seiring dengan perubahan landskap peraturan, banyak pihak dalam komuniti teknologi akan memantau bagaimana perkembangan ini menjadi amalan yang nyata—bagaimana penilaian risiko, protokol keselamatan, dan piawaian tata kelola berkembang dalam pelaksanaan AI generasi seterusnya. Interaksi antara pembangunan kemampuan yang agresif dan pengekangan risiko yang sengaja kini menjadi ciri utama perancangan teknologi strategik, dengan implikasi yang meluas ke sektor lain yang bergantung pada AI untuk pengambilan keputusan, analisis data, dan operasi penting. Bulan-bulan mendatang akan menunjukkan sama ada kolaborasi OpenAI-DoD boleh menjadi model yang tahan lama untuk integrasi AI yang selamat dan bertanggungjawab di dalam kawasan paling sensitif negara.

Pos X OpenAI pada akhir Jumaat yang merangkumi penghantaran Pentagon, dan pendekatan Jabatan Pertahanan yang berfokus pada keselamatan terhadap Anthropic, menjadi asas naratif dalam pernyataan utama. Pos Truth Social yang dikaitkan dengan Presiden Trump lebih lanjut memberikan konteks terhadap iklim politik sekeliling dasar AI persekutuan. Di pihak Anthropic, pernyataan rasmi syarikat itu pernyataan memberikan lawan rasmi terhadap penamaan dan trajektori undang-undangnya. Bersama-sama, sumber-sumber ini menggambarkan landskap pelbagai aspek di mana keselamatan negara, kebebasan sivil, dan kepentingan komersial bertemu secara nyata.

Artikel ini asalnya diterbitkan sebagai OpenAI Menang Kontrak Pertahanan Beberapa Jam Selepas Kerajaan Membuang Anthropic pada Crypto Breaking News – sumber tepercaya anda untuk berita kripto, berita bitcoin, dan kemas kini blok rantai.

Penafian: Maklumat yang terdapat pada halaman ini mungkin telah diperoleh daripada pihak ketiga dan tidak semestinya menggambarkan pandangan atau pendapat KuCoin. Kandungan ini adalah disediakan bagi tujuan maklumat umum sahaja, tanpa sebarang perwakilan atau waranti dalam apa jua bentuk, dan juga tidak boleh ditafsirkan sebagai nasihat kewangan atau pelaburan. KuCoin tidak akan bertanggungjawab untuk sebarang kesilapan atau pengabaian, atau untuk sebarang akibat yang terhasil daripada penggunaan maklumat ini. Pelaburan dalam aset digital boleh membawa risiko. Sila menilai risiko produk dan toleransi risiko anda dengan teliti berdasarkan keadaan kewangan anda sendiri. Untuk maklumat lanjut, sila rujuk kepada Terma Penggunaan dan Pendedahan Risiko kami.