OpenAI ने Anthropic को सरकार द्वारा बंद करने के कुछ घंटों बाद पेंटागन AI अनुबंध प्राप्त किया

iconCryptoBreaking
साझा करें
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconसारांश

expand icon
OpenAI ने सैम आल्टमैन के शुक्रवार के X पोस्ट के अनुसार, सैन्य के वर्गीकृत नेटवर्क पर अपने AI मॉडल तैनात करने के लिए पेंटागन के साथ अनुबंध प्राप्त किया है। Anthropic को व्हाइट हाउस द्वारा CFT और घरेलू निगरानी पर प्रतिबंध लगाने के बाद बंद कर दिया गया था। OpenAI का अनुबंध द्रव्यमान निगरानी को वर्जित करता है और बल-संबंधी निर्णयों में मानवीय निगरानी को अनिवार्य करता है। इसके प्रतिक्रिया में, रिस्क-ऑन संपत्तियों में वृद्धि हुई, जो AI-संचालित रक्षा साझेदारियों में नवीन विश्वास को दर्शाती है। पेंटागन ने पहले जुलाई में Anthropic के साथ $200 मिलियन का अनुबंध किया था। यह परिवर्तन राष्ट्रीय सुरक्षा भूमिकाओं में सुरक्षित AI समाकलन के लिए एक प्रयास को संकेत देता है।
Openai Wins Defense Contract Hours After Govt Ditches Anthropic

OpenAI ने पेंटागन के वर्गीकृत नेटवर्क पर अपने AI मॉडल चलाने के लिए एक समझौता प्राप्त कर लिया है, जिसकी घोषणा OpenAI के CEO सैम आल्टमैन ने X पर शुक्रवार की रात को पोस्ट करके की। यह व्यवस्था अगली पीढ़ी के AI को संवेदनशील सैन्य बुनियादी ढांचे में शामिल करने की औपचारिक कदम को दर्शाती है, जिसे सुरक्षा और शासन की गारंटियों के साथ संदर्भित किया गया है, जो कंपनी की संचालन सीमाओं के साथ संगत हैं। आल्टमैन के संदेश में विभाग के दृष्टिकोण को एक ऐसा तरीका बताया गया है जो सुरक्षा गार्डरेल्स का सम्मान करता है और कंपनी की सीमाओं के भीतर काम करने को तैयार है, जिससे नागरिक प्रस्तुति से वर्गीकृत परिवेशों तक का एक व्यवस्थित मार्ग उजागर होता है। समय के मामले में, OpenAI को एक व्यापक बहस का केंद्र बना दिया गया है, जिसमें यह प्रश्न उठता है कि सार्वजनिक संस्थानों को सैन्य संदर्भ में सिविल स्वतंत्रताओं या संचालन सुरक्षा को नुकसान पहुंचाए बिना कैसे कृत्रिम बुद्धिमत्ता का उपयोग करना चाहिए।

यह समाचार तब आया जब व्हाइट हाउस ने संघीय एजेंसियों को एंथ्रोपिक की तकनीक के उपयोग को रोकने का निर्देश दिया है, जिससे अभी तक इसकी प्रणालियों पर निर्भर एजेंसियों के लिए छह महीने का संक्रमण शुरू हो गया है। यह नीति प्रशासन के इरादे को दर्शाती है कि सरकार भर में AI उपकरणों पर अधिक कड़ी निगरानी रखना चाहती है, जबकि सावधानीपूर्वक, सुरक्षा-मुखी तरीके से इनके प्रयोग के लिए स्थान भी छोड़ती है। पेंटागन-समर्थित एकीकरण और एक प्रतिद्वंद्वी प्लेटफॉर्म पर राष्ट्रव्यापी स्थगन के बीच का विपरीतता, सरकार के स्तर पर इस बात पर समीक्षा को दर्शाती है कि संवेदनशील क्षेत्रों में AI प्रौद्योगिकियों को कैसे, कहाँ, और किन सुरक्षा सुरक्षाओं के साथ संचालित किया जाना चाहिए।

अल्टमैन के टिप्पणियों ने राष्ट्रीय सुरक्षा अनुप्रयोगों के प्रति एक सावधान लेकिन निर्माणात्मक दृष्टिकोण पर जोर दिया। उन्होंने ओपनएआई की व्यवस्था को एक ऐसा समझाया जो सुरक्षा को प्राथमिकता देता है जबकि शक्तिशाली क्षमताओं तक पहुँच की अनुमति देता है, जो सरकारी नेटवर्क में जिम्मेदारी से एआई के उपयोग के बारे में चल रही चर्चाओं के साथ संगति रखता है। रक्षा विभाग का दृष्टिकोण—नियंत्रित पहुँच और कठोर शासन के पक्ष में—ऐसे संचालन सुरक्षा को एकीकृत करने की एक व्यापक नीति प्रवृत्ति को प्रतिबिंबित करता है, जो अन्यथा उन स्थानों और तरीकों को तेज कर सकता है जहाँ एआई महत्वपूर्ण निर्णयों को प्रभावित करता है। दोनों पक्षों से सार्वजनिक संकेत से एक मॉडल सामने आता है, जिसमें रक्षा संस्थाओं के साथ सहयोग कठोर पालन ढांचे के तहत होता है, बजाय व्यापक, अनफिल्टर्ड उपयोग के।

इस नियामक और राजनीतिक पृष्ठभूमि के भीतर, एंथ्रोपिक की स्थिति अभी भी एक केंद्रीय बिंदु है। कंपनी ने जुलाई में हस्ताक्षरित 200 मिलियन डॉलर के अनुबंध के तहत पेंटागन के वर्गीकृत परिवेश में मॉडल्स को सक्रिय करने वाला पहला एआई प्रयोगशाला था। रिपोर्ट्स के अनुसार, एंथ्रोपिक ने अपने सॉफ़्टवेयर को स्वायत्त हथियारों या घरेलू द्रव्यमान निगरानी के लिए उपयोग नहीं किए जाने की गारंटी मांगी, जिसके बाद बातचीत टूट गई। इसके विपरीत, रक्षा विभाग ने दावा किया कि प्रौद्योगिकी सभी कानूनी सैन्य उद्देश्यों के लिए उपलब्ध रहे, जो सुरक्षा की आवश्यकताओं के लिए लचीलापन बनाए रखते हुए सुरक्षा सुरक्षाओं को बनाए रखने का एक मुद्रण है। इस अंतर से स्पष्ट होता है कि कट़ोरी क्षमताओं को सक्षम करने और राष्ट्रीय सुरक्षा और सिविल-स्वतंत्रता के मुद्दों के साथ संगति बनाए रखने के लिए सुरक्षा प्रतिबंधों को लागू करने के बीच सूक्ष्म संतुलन कैसे है।

एंथ्रोपिक ने बाद में कहा कि इस निर्धारण से यह “गहराई से दुखी” है और न्यायालय में इस निर्णय की चुनौती देने का इरादा व्यक्त किया। यदि इस चलन को बरकरार रखा गया, तो यह एक महत्वपूर्ण पूर्वाग्रह स्थापित कर सकता है, जो अमेरिकी प्रौद्योगिकी कंपनियों के लिए सरकारी एजेंसियों के साथ बातचीत करने के तरीके को प्रभावित कर सकता है, जबकि AI साझेदारियों पर राजनीतिक निगरानी तीव्र हो रही है। ओपनएआई, अपनी ओर से, ने संकेत दिया है कि इसके पास समान प्रतिबंध हैं और इन्हें अपने समझौता ढांचे में शामिल किया गया है। अल्टमैन ने नोट किया कि ओपनएआई घरेलू द्रष्टि संग्रह को प्रतिबंधित करता है और बल के उपयोग, जिसमें स्वचालित हथियार प्रणालियाँ शामिल हैं, में मानवीय जवाबदेही की मांग करता है। ये प्रावधान संवेदनशील संचालनों में AI के उपयोग के लिए सरकार की अपेक्षाओं के साथ समन्वय करने के लिए हैं, भले ही सैन्य संचालन में AI उपकरणों के गहन समाकलन की खोज की जा रही हो।

विकासों के प्रति सार्वजनिक प्रतिक्रिया मिश्रित रही है। सामाजिक मंचों पर कुछ निरीक्षकों ने एआई शासन की दिशा और नवाचार के लिए इसके परिणामों के बारे में प्रश्न उठाए। चर्चा इस बड़ी चिंता को छूती है कि सुरक्षा और नागरिक स्वतंत्रताओं को सरकारी और रक्षा संदर्भों में एआई के तेज़ी से और विशाल पैमाने पर प्रसार के साथ कैसे समझौता किया जा सकता है। हालाँकि, मुख्य निष्कर्ष स्पष्ट है: सरकार राष्ट्रीय सुरक्षा के क्षेत्रों में एआई के साथ सक्रिय रूप से प्रयोग कर रही है, जबकि दुरुपयोग को रोकने के लिए साथ ही सुरक्षा उपाय लगा रही है, और परिणाम संभवतः तकनीकी क्षेत्र में भविष्य की खरीददारी और सहयोग को आकार देंगे।

अल्टमैन के टिप्पणियों ने दोहराया कि OpenAI के प्रतिबंधों में घरेलू द्रव्यमान निगरानी पर प्रतिबंध और बल के साथ जुड़े निर्णयों, जिसमें स्वचालित हथियार प्रणालियाँ शामिल हैं, में मानवीय निगरानी की आवश्यकता शामिल है। ये प्रतिबद्धताएँ गुप्त वातावरणों तक पहुँच के लिए आवश्यक पूर्वशर्तों के रूप में प्रस्तुत की गई हैं, जो एक शासन मॉडल को संकेत देती हैं जो बड़े पैमाने पर AI मॉडल्स की शक्ति को संवेदनशील संचालनों द्वारा मांगी गई सुरक्षा उपायों के साथ समन्वयित करने का प्रयास करती है। व्यापक दिशा से पता चलता है कि नीति निर्माता और रक्षा हितधारकों में AI के लाभों का उपयोग करने के साथ-साथ अतिक्रमण या दुरुपयोग को रोकने के लिए कठोर निगरानी बनाए रखने में स्थिर रुचि है। जैसे ही यह व्यावहारिक कार्यान्वयन के चरण में प्रवेश करता है, सरकारी एजेंसियाँ और टेक प्रदाता दोनों को उच्च-जोखिम वाले सेटिंग्स में सुरक्षा, पारदर्शिता और जवाबदेही को बनाए रखने की क्षमता के आधार पर मापा जाएगा।

अनुमानित कहानी यह भी उजागर करती है कि AI के चारों ओर की खरीद और नीति निर्णय इस प्रौद्योगिकी के व्यापक परितंत्र को कैसे प्रभावित करेंगे। यदि पेंटागन के गुप्त नेटवर्क में OpenAI के मॉडल्स के साथ प्रयोग स्केलेबल और सुरक्षित साबित होते हैं, तो वे भविष्य की सहयोगिताओं के लिए एक मानक सेट कर सकते हैं जो अग्रणी AI को कठोर शासन के साथ मिलाते हैं, एक मॉडल जो संभवतः लहर के रूप में संलग्न उद्योगों में फैलेगा—जिनमें AI-सहायक विश्लेषण और ब्लॉकचेन-आधारित शासन तंत्रों का अन्वेषण शामिल है। एक ही समय पर, Anthropic की घटना यह दर्शाती है कि इस प्रकार की खरीद बातचीतें हथियारीकरण और निगरानी के संबंध में स्पष्ट गारंटियों पर कैसे निर्भर कर सकती हैं—एक मुद्दा जो आरंभिक और स्थापित कंपनियों के लिए संघीय अनुबंधों को प्राप्त करने की शर्तों को आकार दे सकता है।

एक समानांतर रूप से, एआई नीति के चारों ओर जनता की चर्चा लगातार विकसित हो रही है, जहां कानून बनाने वाले और नियामक निजी कंपनियों द्वारा राष्ट्रीय सुरक्षा की मांगों के प्रति प्रतिक्रिया को ध्यान से देख रहे हैं। एंथ्रोपिक की इच्छित कानूनी चुनौती का परिणाम भविष्य के सरकारी साझेदारी के लिए बातचीत के खेल के नियमों को प्रभावित कर सकता है, जिससे संभवतः अवधि कैसे तैयार की जाती है, जोखिम कैसे आवंटित किया जाता है, और विभिन्न एजेंसियों के बीच पालन कैसे सत्यापित किया जाता है, इस पर प्रभाव पड़ सकता है। पेंटागन के वर्गीकृत नेटवर्क के भीतर ओपनएआई-सहायता से संचालन एआई की गति और उपयोगिता को उसके सबसे संवेदनशील अनुप्रयोगों को परिभाषित करने वाले जवाबदेही और सुरक्षा सीमाओं के साथ संतुलित करने के लिए एक परीक्षण मामला है।

जबकि नियामक परिदृश्य लगातार बदल रहा है, प्रौद्योगिकी समुदाय के कई लोग यह देखेंगे कि ये विकास कैसे व्यावहारिक प्रथाओं में ठोस रूप लेते हैं—अगली पीढ़ी के AI लागूकरण में जोखिम का मूल्यांकन, सुरक्षा प्रोटोकॉल और शासन मानकों का विकास कैसे होता है। आक्रामक क्षमता विकास और जानबूझकर जोखिम सीमित करने के बीच का अंतर्क्रिया अब रणनीतिक प्रौद्योगिकी योजना की एक केंद्रीय विशेषता बन गया है, जिसके प्रभाव सुरक्षा से परे, AI के आधार पर निर्णय लेने, डेटा विश्लेषण और महत्वपूर्ण संचालन पर निर्भर करने वाले अन्य क्षेत्रों तक फैले हुए हैं। आगामी महीनों में यह स्पष्ट होगा कि OpenAI-DoD सहयोग सरकार के सबसे संवेदनशील क्षेत्रों में सुरक्षित, जिम्मेदार AI समाकलन के लिए एक स्थायी मॉडल के रूप में काम कर सकता है या नहीं।

ओपनएआई का शुक्रवार की रात का X पोस्ट पेंटागन के तैनाती को संदर्भित करता है, और रक्षा विभाग की एंथ्रोपिक के प्रति सुरक्षा-केंद्रित दृष्टिकोण कथानक को प्राथमिक बयानों में स्थापित करते हैं। अध्यक्ष ट्रम्प के नाम पर दिए गए ट्रुथ सोशल पोस्ट ने संघीय एआई नीति के चारों ओर के राजनीतिक वातावरण को संदर्भित किया है। एंथ्रोपिक की ओर से, कंपनी का आधिकारिक बयान इस नामकरण और इसके कानूनी पथ के प्रति औपचारिक विपरीत दृष्टिकोण प्रदान करता है। एक साथ, ये स्रोत एक बहुआयामी परिदृश्य का चित्रण करते हैं, जहाँ राष्ट्रीय सुरक्षा, नागरिक स्वतंत्रताएँ और व्यावसायिक हित वास्तविक समय में प्रतिच्छेदित होते हैं।

यह लेख मूल रूप से OpenAI Wins Defense Contract Hours After Govt Ditches Anthropic के रूप में Crypto Breaking News पर प्रकाशित किया गया था – आपका विश्वसनीय स्रोत क्रिप्टो समाचार, बिटकॉइन समाचार और ब्लॉकचेन अपडेट्स के लिए।

डिस्क्लेमर: इस पेज पर दी गई जानकारी थर्ड पार्टीज़ से प्राप्त की गई हो सकती है और यह जरूरी नहीं कि KuCoin के विचारों या राय को दर्शाती हो। यह सामग्री केवल सामान्य सूचनात्मक उद्देश्यों के लिए प्रदान की गई है, किसी भी प्रकार के प्रस्तुतीकरण या वारंटी के बिना, न ही इसे वित्तीय या निवेश सलाह के रूप में माना जाएगा। KuCoin किसी भी त्रुटि या चूक के लिए या इस जानकारी के इस्तेमाल से होने वाले किसी भी नतीजे के लिए उत्तरदायी नहीं होगा। डिजिटल संपत्तियों में निवेश जोखिम भरा हो सकता है। कृपया अपनी वित्तीय परिस्थितियों के आधार पर किसी प्रोडक्ट के जोखिमों और अपनी जोखिम सहनशीलता का सावधानीपूर्वक मूल्यांकन करें। अधिक जानकारी के लिए, कृपया हमारे उपयोग के नियम और जोखिम प्रकटीकरण देखें।