OpenAI ได้รับสัญญาปัญญาประดิษฐ์จากกระทรวงกลาโหมเพียงไม่กี่ชั่วโมงหลังจาก Anthropic ถูกภาครัฐเลิกจ้าง

iconCryptoBreaking
แชร์
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconสรุป

expand icon
OpenAI ได้รับสัญญาจากกระทรวงกลาโหมสหรัฐฯ ให้ใช้งานโมเดล AI บนเครือข่ายลับของกองทัพ ตามโพสต์ของแซม อัลต์แมนบน X เมื่อวันศุกร์ Anthropic ถูกทำให้หยุดการร่วมมือโดยทำเนียบขาวหลังจากพยายามจำกัดการเฝ้าระวังของ CFT และภายในประเทศ สัญญาของ OpenAI ห้ามการเฝ้าระวังแบบมวลชนและบังคับให้มีการควบคุมดูแลโดยมนุษย์ในการตัดสินใจที่เกี่ยวข้องกับกำลังทหาร สินทรัพย์ที่มีความเสี่ยงสูงพุ่งขึ้นตอบสนองต่อความเชื่อมั่นที่กลับมาในความร่วมมือด้านการป้องกันประเทศที่ขับเคลื่อนด้วย AI ก่อนหน้านี้ กระทรวงกลาโหมได้ลงนามในสัญญา trịมูลค่า 200 ล้านดอลลาร์กับ Anthropic ในเดือนกรกฎาคม การเปลี่ยนแปลงนี้บ่งชี้ถึงความพยายามในการผสานรวม AI อย่างปลอดภัยยิ่งขึ้นในบทบาทด้านความมั่นคงแห่งชาติ
Openai Wins Defense Contract Hours After Govt Ditches Anthropic

OpenAI ได้รับข้อตกลงเพื่อดำเนินโมเดล AI ของตนบนเครือข่ายลับของกระทรวงกลาโหม ซึ่งได้รับการประกาศโดยซาม์ อัลต์แมน ซีอีโอของ OpenAI ในโพสต์เมื่อวันศุกร์ปลายคืนบน X การจัดการนี้แสดงถึงก้าวอย่างเป็นทางการในการผสานรวม AI รุ่นถัดไปเข้ากับโครงสร้างพื้นฐานทางทหารที่ละเอียดอ่อน โดยมีการรับรองด้านความปลอดภัยและการกำกับดูแลที่สอดคล้องกับขีดจำกัดการดำเนินงานของบริษัท ข้อความของอัลต์แมนอธิบายว่าแนวทางของกระทรวงนี้ให้ความเคารพต่อกรอบความปลอดภัยและยินดีทำงานภายในขอบเขตของบริษัท ซึ่งเน้นย้ำถึงเส้นทางที่เป็นระบบจากสถานการณ์ใช้งานในภาคพลเรือนไปสู่สภาพแวดล้อมที่เป็นความลับ เวลาที่เกิดขึ้นทำให้ OpenAI อยู่ใจกลางของการอภิปรายกว้างขึ้นเกี่ยวกับวิธีที่สถาบันสาธารณะควรใช้ปัญญาประดิษฐ์โดยไม่ละเมิดสิทธิพลเรือนหรือความปลอดภัยในการดำเนินงาน โดยเฉพาะในบริบทด้านการป้องกันประเทศ

ข่าวดังกล่าวเกิดขึ้นในขณะที่ทำเนียบขาวสั่งหน่วยงานรัฐบาลกลางให้หยุดการใช้งานเทคโนโลยีของ Anthropic และเริ่มกระบวนการเปลี่ยนผ่านเป็นเวลาหกเดือนสำหรับหน่วยงานที่กำลังพึ่งพาระบบของมันอยู่ นโยบายดังกล่าวแสดงเจตนาของรัฐบาลในการเพิ่มการกำกับดูแลเครื่องมือปัญญาประดิษฐ์ที่ใช้ในหน่วยงานรัฐ ขณะเดียวกันก็ยังเปิดช่องให้มีการปรับใช้อย่างระมัดระวังและคำนึงถึงความปลอดภัย การเปรียบเทียบระหว่างการบูรณาการที่ได้รับการสนับสนุนจากกระทรวงกลาโหมกับการระงับการใช้งานอย่างกว้างขวางต่อแพลตฟอร์มคู่แข่ง สะท้อนถึงการทบทวนในระดับรัฐบาลเกี่ยวกับวิธีการ สถานที่ และข้อกำหนดด้านความปลอดภัยใดที่ควรใช้กับเทคโนโลยีปัญญาประดิษฐ์ในโดเมนที่ละเอียดอ่อน

คำกล่าวของอัลต์แมนเน้นท่าทางที่ระมัดระวังแต่สร้างสรรค์ต่อการประยุกต์ใช้งานด้านความมั่นคงแห่งชาติ เขาอธิบายข้อตกลงของ OpenAI ว่าเป็นการให้ความสำคัญกับความปลอดภัยในขณะที่ยังคงเปิดโอกาสให้เข้าถึงความสามารถที่ทรงพลัง ซึ่งสอดคล้องกับการอภิปรายอย่างต่อเนื่องเกี่ยวกับการใช้งาน AI อย่างรับผิดชอบในเครือข่ายของรัฐบาล แนวทางของกระทรวงกลาโหม—ซึ่งสนับสนุนการเข้าถึงแบบควบคุมและการกำกับดูแลอย่างเข้มงวด—สะท้อนแนวโน้มเชิงนโยบายโดยรวมในการสร้างความปลอดภัยในการดำเนินงานเข้าไปในกระบวนการปรับใช้งานที่อาจเร่งความเร็วและวิธีการที่ AI มีอิทธิพลต่อการตัดสินใจที่สำคัญ สัญญาณจากทั้งสองฝ่ายบ่งชี้ถึงแบบจำลองที่ความร่วมมือกับหน่วยงานด้านการป้องกันประเทศดำเนินไปภายใต้กรอบการปฏิบัติตามข้อกำหนดอย่างเคร่งครัด แทนที่จะเป็นการใช้งานแบบกว้างขวางและไม่มีการกรอง

ในบริบททางกฎหมายและการเมืองนี้ สถานการณ์ของ Anthropic ยังคงเป็นจุดสนใจหลัก บริษัทเคยเป็นห้องปฏิบัติการปัญญาประดิษฐ์แห่งแรกที่นำแบบจำลองไปใช้งานในสภาพแวดล้อมที่จัด classified ของกระทรวงกลาโหมภายใต้สัญญา trịมูลค่า 200 ล้านดอลลาร์สหรัฐที่ลงนามในเดือนกรกฎาคม การเจรจาถูกรายงานว่าล้มเหลวหลังจาก Anthropic ขอการรับประกันว่าซอฟต์แวร์ของตนจะไม่ถูกใช้เพื่อพัฒนาอาวุธอัตโนมัติหรือการเฝ้าระวังมวลชนภายในประเทศ ในทางกลับกัน กระทรวงกลาโหมยืนยันว่าเทคโนโลยีนี้ต้องยังคงสามารถใช้งานได้สำหรับวัตถุประสงค์ทางทหารที่ถูกต้องตามกฎหมาย ซึ่งเป็นท่าทีที่ออกแบบมาเพื่อรักษาความยืดหยุ่นสำหรับความต้องการด้านการป้องกันประเทศ ในขณะเดียวกันก็รักษามาตรการป้องกันไว้ ความแตกต่างนี้แสดงให้เห็นถึงสมดุลที่ละเอียดอ่อนระหว่างการเปิดโอกาสให้มีความสามารถขั้นสูงสุดกับการบังคับใช้กรอบการควบคุมที่สอดคล้องกับความพิจารณาด้านความมั่นคงแห่งชาติและสิทธิพลเมือง

Anthropic ต่อมาได้ระบุว่ารู้สึก “เศร้าอย่างยิ่ง” กับการจัดอันดับดังกล่าว และแสดงเจตนาที่จะท้าทายคำตัดสินนี้ในศาล การกระทำนี้ หากยังคงมีผล จะสามารถตั้งข้อตกลงสำคัญที่ส่งผลกระทบต่อวิธีที่บริษัทเทคโนโลยีของอเมริกาเจรจา vớiหน่วยงานรัฐบาล ขณะที่การตรวจสอบทางการเมืองเกี่ยวกับพันธมิตรด้าน AI กำลังเพิ่มขึ้น OpenAI ในส่วนของตนเอง ได้แสดงว่ามีข้อจำกัดที่คล้ายกันและได้รวมไว้ในกรอบข้อตกลงของตนเอง Altman ระบุว่า OpenAI ห้ามการเฝ้าระวังมวลในประเทศ และต้องการความรับผิดชอบของมนุษย์ในการตัดสินใจที่เกี่ยวข้องกับการใช้กำลัง รวมถึงระบบอาวุธอัตโนมัติ ข้อกำหนดเหล่านี้มีจุดประสงค์เพื่อให้สอดคล้องกับความคาดหวังของรัฐบาลเกี่ยวกับการใช้ AI อย่างรับผิดชอบในการดำเนินการที่ละเอียดอ่อน แม้ว่ากองทัพจะกำลังสำรวจการผสานรวม AI เข้ากับกระบวนการทำงานของตนอย่างลึกซึ้งยิ่งขึ้น

ปฏิกิริยาของสาธารณชนต่อการพัฒนาเหล่านี้มีทั้งบวกและลบ ผู้สังเกตการณ์บางส่วนบนแพลตฟอร์มโซเชียลตั้งคำถามเกี่ยวกับทิศทางของการกำกับดูแลปัญญาประดิษฐ์และผลกระทบต่อการสร้างนวัตกรรม การอภิปรายนี้แตะต้องถึงกังวลเชิงกว้างเกี่ยวกับการปรับสมดุลระหว่างความปลอดภัยและเสรีภาพของพลเมืองกับความเร็วและขนาดของการนำปัญญาประดิษฐ์ไปใช้ในบริบทของรัฐบาลและภาคป้องกันประเทศ อย่างไรก็ตาม ข้อสรุปหลักชัดเจน: รัฐบาลกำลังทดลองใช้ปัญญาประดิษฐ์ในพื้นที่ความมั่นคงแห่งชาติพร้อมกับวางกรอบการควบคุมเพื่อป้องกันการใช้ในทางที่ผิด โดยผลลัพธ์ที่ได้น่าจะเป็นตัวกำหนดการจัดซื้อและการร่วมมือในอนาคตของภาคเทคโนโลยี

ความคิดเห็นของอัลต์แมนย้ำว่าข้อจำกัดของ OpenAI รวมถึงการห้ามการเฝ้าระวังมวลในประเทศ และการบังคับใช้การควบคุมโดยมนุษย์ในการตัดสินใจที่เกี่ยวข้องกับการใช้กำลัง รวมถึงระบบอาวุธอัตโนมัติ คำมั่นเหล่านี้ถูกนำเสนอเป็นเงื่อนไขเบื้องต้นสำหรับการเข้าถึงสภาพแวดล้อมที่จัดอยู่ในระดับลับ ซึ่งสื่อถึงแบบจำลองการกำกับดูแลที่มุ่งประสานพลังของแบบจำลองปัญญาประดิษฐ์ขนาดใหญ่เข้ากับมาตรการป้องกันที่จำเป็นสำหรับการดำเนินงานที่ละเอียดอ่อน การเดินทางในภาพรวมบ่งชี้ถึงความสนใจอย่างต่อเนื่องจากผู้กำหนดนโยบายและผู้มีส่วนได้ส่วนเสียด้านการป้องกันในการใช้ประโยชน์จากข้อดีของปัญญาประดิษฐ์ ขณะเดียวกันก็รักษาการควบคุมอย่างเข้มงวดเพื่อป้องกันการใช้เกินขอบเขตหรือการใช้ในทางที่ผิด เมื่อสิ่งนี้เข้าสู่ระยะการนำไปปฏิบัติจริง หน่วยงานรัฐและผู้ให้บริการเทคโนโลยีจะถูกวัดผลจากความสามารถในการรักษาความปลอดภัย ความโปร่งใส และความรับผิดชอบในบริบทที่มีความเสี่ยงสูง

เรื่องราวที่กำลังเกิดขึ้นยังเน้นย้ำว่าการตัดสินใจด้านการจัดซื้อและนโยบายเกี่ยวกับปัญญาประดิษฐ์จะส่งผลต่อระบบนิเวศโดยรวมของเทคโนโลยีนี้ หากการทดลองของกระทรวงกลาโหมสหรัฐฯ ที่ใช้โมเดลของ OpenAI ภายในเครือข่ายลับพิสูจน์ได้ว่าสามารถขยายขนาดได้และปลอดภัย อาจสร้างแบบจำลองสำหรับความร่วมมือในอนาคตที่ผสมผสานปัญญาประดิษฐ์ขั้นสูงเข้ากับการกำกับดูแลอย่างเข้มงวด ซึ่งเป็นแบบจำลองที่มีแนวโน้มจะ กระจาย ไปสู่อุตสาหกรรมที่เกี่ยวข้อง—including those exploring AI-assisted analytics and blockchain-based governance mechanisms. ในเวลาเดียวกัน กรณีของ Anthropic แสดงให้เห็นว่าการเจรจาการจัดซื้อสามารถขึ้นอยู่กับการรับประกันอย่างชัดเจนเกี่ยวกับการใช้งานเพื่อการโจมตีและการเฝ้าระวัง—ปัญหาที่อาจกำหนดเงื่อนไขที่สตาร์ทอัพและผู้เล่นรายใหญ่จะดำเนินการขอสัญญาจากรัฐบาล

ในเวลาเดียวกัน การอภิปรายของสาธารณชนเกี่ยวกับนโยบายปัญญาประดิษฐ์ยังคงพัฒนาต่อไป โดยนักกฎหมายและหน่วยงานกำกับดูแลติดตามอย่างใกล้ชิดว่าบริษัทเอกชนจะตอบสนองต่อข้อเรียกร้องด้านความมั่นคงแห่งชาติอย่างไร ผลลัพธ์ของการท้าทายทางกฎหมายที่ Anthropic มีเจตนาจะดำเนินการอาจส่งผลต่อแผนการเจรจาสำหรับความร่วมมือกับรัฐบาลในอนาคต ซึ่งอาจส่งผลกระทบต่อวิธีการร่างข้อกำหนด วิธีการจัดสรรความเสี่ยง และวิธีการยืนยันการปฏิบัติตามกฎระเบียบระหว่างหน่วยงานต่างๆ การนำระบบที่ช่วยโดย OpenAI ไปใช้งานภายในเครือข่ายลับของกระทรวงกลาโหมยังคงเป็นกรณีทดสอบสำหรับการสมดุลระหว่างความเร็วและประโยชน์ของปัญญาประดิษฐ์กับข้อจำกัดด้านความรับผิดชอบและความปลอดภัยที่กำหนดไว้สำหรับการใช้งานที่ละเอียดอ่อนที่สุด

ในขณะที่สภาพแวดล้อมทางการกำกับดูแลยังคงเปลี่ยนแปลง ผู้คนในชุมชนเทคโนโลยีจำนวนมากจะจับตาดูว่าการพัฒนาเหล่านี้จะกลายเป็นแนวทางปฏิบัติที่ชัดเจนได้อย่างไร—ว่าการประเมินความเสี่ยง โปรโตคอลด้านความปลอดภัย และมาตรฐานการกำกับดูแลจะพัฒนาไปอย่างไรในการใช้งานปัญญาประดิษฐ์รุ่นถัดไป การมีปฏิสัมพันธ์ระหว่างการพัฒนาความสามารถอย่างแข็งกร้าวและการควบคุมความเสี่ยงอย่างรอบคอบตอนนี้เป็นคุณลักษณะสำคัญของการวางแผนเทคโนโลยีเชิงกลยุทธ์ โดยมีผลกระทบขยายออกไปเกินกว่าด้านการป้องกัน ไปยังภาคอื่นๆ ที่พึ่งพาปัญญาประดิษฐ์ในการตัดสินใจ การวิเคราะห์ข้อมูล และการดำเนินงานที่สำคัญ หลายเดือนข้างหน้าจะเปิดเผยว่าความร่วมมือระหว่าง OpenAI กับ DoD สามารถเป็นแบบจำลองที่ยั่งยืนสำหรับการบูรณาการปัญญาประดิษฐ์อย่างปลอดภัยและรับผิดชอบภายในพื้นที่ที่ละเอียดอ่อนที่สุดของรัฐหรือไม่

โพสต์บน X ของ OpenAI ในช่วงปลายวันศุกร์ ที่อธิบายการส่งมอบโดยกระทรวงกลาโหม และ ท่าทีของกระทรวงกลาโหมที่เน้นความปลอดภัย ต่อ Anthropic ช่วยยึดเรื่องราวไว้กับคำแถลงหลัก โพสต์บน Truth Social ที่อ้างว่ามาจากประธานาธิบดี Trump ยิ่งทำให้บริบททางการเมืองเกี่ยวกับนโยบาย AI ของรัฐบาลกลางชัดเจนขึ้น ในด้านของ Anthropic คำแถลงอย่างเป็นทางการของบริษัท statement ให้จุดยืนที่เป็นทางการเพื่อโต้แย้งการจัดอันดับและเส้นทางทางกฎหมายของมัน ร่วมกันแล้ว แหล่งข้อมูลเหล่านี้ระบุภาพรวมที่ซับซ้อนหลายมิติ ที่ความมั่นคงแห่งชาติ สิทธิพลเมือง และผลประโยชน์ทางการค้าตัดกันในเวลาจริง

บทความนี้เผยแพร่ครั้งแรกในรูปแบบ OpenAI ได้รับสัญญาด้านการป้องกันประเทศไม่กี่ชั่วโมงหลังรัฐบาลเลิก Anthropic บน Crypto Breaking News – แหล่งข่าวคริปโตที่เชื่อถือได้สำหรับข่าวคริปโต ข่าว Bitcoin และการอัปเดตบล็อกเชน

แหล่งที่มา:แสดงต้นฉบับ
คำปฏิเสธความรับผิดชอบ: ข้อมูลในหน้านี้อาจได้รับจากบุคคลที่สาม และไม่จำเป็นต้องสะท้อนถึงมุมมองหรือความคิดเห็นของ KuCoin เนื้อหานี้จัดทำขึ้นเพื่อวัตถุประสงค์ในการให้ข้อมูลทั่วไปเท่านั้น โดยไม่มีการรับรองหรือการรับประกัน และจะไม่ถูกตีความว่าเป็นคำแนะนำทางการเงินหรือการลงทุน KuCoin จะไม่รับผิดชอบต่อความผิดพลาดหรือการละเว้นในเนื้อหา หรือผลลัพธ์ใดๆ ที่เกิดจากการใช้ข้อมูลนี้ การลงทุนในสินทรัพย์ดิจิทัลอาจมีความเสี่ยง โปรดประเมินความเสี่ยงของผลิตภัณฑ์และความเสี่ยงที่คุณยอมรับได้อย่างรอบคอบตามสถานการณ์ทางการเงินของคุณเอง โปรดดูข้อมูลเพิ่มเติมได้ที่ข้อกำหนดการใช้งานและเอกสารเปิดเผยข้อมูลความเสี่ยงของเรา