न्यूयॉर्क टाइम्स की रिपोर्ट ने ओपनएआई के आंतरिक संदेहों को उजागर किया कि सैम आल्टमैन की विश्वसनीयता पर

iconTechFlow
साझा करें
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconसारांश

expand icon
न्यूयॉर्क टाइम्स की ऑन-चेन खबर में ओपनएआई के अंदरूनी संदेहों का खुलासा हुआ है, जिसमें सीईओ सैम आल्टमैन की भरोसेमंदी पर सवाल उठाए गए हैं। लगभग 100 साक्षात्कारों और आंतरिक दस्तावेजों के आधार पर, रिपोर्ट में दावा किया गया है कि आल्टमैन ने बोर्ड को धोखा दिया और सुरक्षा उपायों को हटा दिया। पूर्व मुख्य वैज्ञानिक इल्या सुत्स्केवर के 70-पृष्ठीय दस्तावेज में आल्टमैन के आरोपित असत्य का वर्णन किया गया है, जिसमें GPT-4 के बारे में झूठे दावे शामिल हैं। एंथ्रोपिक के डैरियो अमोडेई ने निजी रूप से कहा कि “ओपनएआई की समस्या सैम ही है।” रिपोर्ट में ओपनएआई के गैर-लाभकारी सुरक्षा मिशन से वाणिज्यिक संस्था में परिवर्तन पर भी प्रकाश डाला गया है, जहां महत्वपूर्ण प्रोटोकॉल को अनदेखा किया गया। AI और क्रिप्टो सेक्टर में अब नए टोकन सूचीकरण और कॉर्पोरेट रणनीति परिवर्तनों पर अधिक सख्ती से नजर रखी जा रही है।

लेखक: शियाओबिंग, शेनचाओ टेकफ्लो

2023 की शरद ऋतु में, OpenAI के मुख्य वैज्ञानिक इल्या सुत्स्केवर ने कंप्यूटर के सामने बैठकर 70 पृष्ठों का दस्तावेज पूरा किया।

यह दस्तावेज Slack संदेश रिकॉर्ड, एचआर संचार अभिलेख और आंतरिक बैठक के नोट्स से तैयार किया गया है, और केवल एक प्रश्न का उत्तर देने के लिए है: सैम आल्टमैन, जो संभवतः मानव इतिहास की सबसे खतरनाक प्रौद्योगिकी का प्रबंधन करता है, क्या उस पर भरोसा किया जा सकता है?

सुत्स्केवर द्वारा दिया गया उत्तर, फ़ाइल के पहले पृष्ठ की पहली पंक्ति में लिखा गया है, सूची का शीर्षक है "सैम ने एक निरंतर व्यवहार पैटर्न दिखाया..."

First: Lie.

आज, दो साल और आधे साल बाद, जांच पत्रकार रोनन फैरो और एंड्रयू मारांत्ज़ ने द न्यूयॉर्कर में एक लंबी जांच रिपोर्ट प्रकाशित की। उन्होंने 100 से अधिक प्रमुख व्यक्तियों के साथ साक्षात्कार किए, पहले कभी जारी नहीं किए गए आंतरिक स्मृतियाँ प्राप्त कीं, और Anthropic के संस्थापक डैरियो अमोडेई के OpenAI के समय के 200 से अधिक पृष्ठों के निजी नोट्स प्राप्त किए। इन दस्तावेज़ों से बना कहानी, 2023 के "राजनीतिक संघर्ष" से कहीं अधिक बुरी है: OpenAI कैसे एक मानव सुरक्षा के लिए बनाई गई गैर-लाभकारी संस्था से, धीरे-धीरे एक व्यावसायिक मशीन में बदल गया, और लगभग हर सुरक्षा सुरक्षा, एक ही व्यक्ति द्वारा हटा दी गई।

अमोडेई के नोट्स में निष्कर्ष अधिक सीधा है: "OpenAI की समस्या Sam ही है।"

OpenAI का "मूल पाप" सेटिंग

इस रिपोर्ट के महत्व को समझने के लिए, यह स्पष्ट करना आवश्यक है कि OpenAI नामक कंपनी कितनी विशिष्ट है।

2015 में, अल्टमैन और एक सेलिकॉन वैली के शीर्ष व्यक्तियों ने व्यापार के इतिहास में लगभग अद्वितीय कार्य किया: एक गैर-लाभकारी संगठन का उपयोग करके शायद मानव इतिहास की सबसे शक्तिशाली प्रौद्योगिकी का विकास किया। बोर्ड की जिम्मेदारियाँ स्पष्ट रूप से लिखी गई हैं, सुरक्षा को कंपनी की सफलता से अधिक प्राथमिकता दी जाती है, यहां तक कि कंपनी के अस्तित्व से भी। सरल शब्दों में, अगर कभी OpenAI का AI खतरनाक हो जाता है, तो बोर्ड का कर्तव्य है कि वह स्वयं कंपनी को बंद कर दे।

पूरी व्यवस्था एक मान्यता पर निर्भर करती है: एजीआई को नियंत्रित करने वाला व्यक्ति एक अत्यंत ईमानदार व्यक्ति होना चाहिए।

What if you bet wrong?

सारी खबर का केंद्र 70 पृष्ठों का दस्तावेज़ है। सुत्स्केवर को ऑफिस पॉलिटिक्स में दिलचस्पी नहीं है, वह दुनिया के सबसे शीर्ष AI वैज्ञानिकों में से एक हैं। लेकिन 2023 तक, उन्हें एक बात हमेशा के लिए यकीन हो गई: अल्टमैन निरंतर उच्च प्रबंधकों और बोर्ड को झूठ बोल रहे हैं।

एक विशिष्ट उदाहरण: 2022 के दिसंबर में, आल्टमैन ने बोर्ड की बैठक में वादा किया कि आगामी GPT-4 की कई सुविधाएँ सुरक्षा समीक्षा से गुजर चुकी हैं। बोर्ड के सदस्य टोनर ने अनुमोदन दस्तावेज़ देखने का अनुरोध किया, जिससे पता चला कि सबसे विवादास्पद दो सुविधाएँ (उपयोगकर्ता-द्वारा कस्टमाइज़ किया गया सूक्ष्म-समायोजन और व्यक्तिगत सहायक तैनाती) को सुरक्षा पैनल की मंजूरी नहीं मिली थी।

भारत में और भी अजीब बातें हुईं। एक कर्मचारी ने एक अन्य बोर्ड सदस्य को "उस उल्लंघन" की रिपोर्ट की: माइक्रोसॉफ्ट ने आवश्यक सुरक्षा समीक्षा पूरी नहीं की, लेकिन भारत में ChatGPT के प्रारंभिक संस्करण को पहले ही लॉन्च कर दिया।

सुत्स्केवर ने एक और बात भी नोट में दर्ज की: अल्टमैन ने पूर्व CTO मिरा मुराटी से कहा था कि सुरक्षा अनुमोदन प्रक्रिया इतनी महत्वपूर्ण नहीं है, कंपनी के कानूनी मुख्य अधिकारी ने इसे मंजूर कर लिया है। मुराटी ने कानूनी मुख्य अधिकारी से पुष्टि की, जिसका जवाब था: "मुझे नहीं पता सैम ने यह छप्पर कहाँ से प्राप्त किया।"

अमोदेई के 200 पृष्ठों के निजी नोट्स

सुत्स्केवर के दस्तावेज एक अभियोजक की आरोप पत्र की तरह हैं। अमोडेई द्वारा छोड़े गए 200 से अधिक पृष्ठों के नोट्स, एक गवाह के द्वारा घटनास्थल पर लिखी गई डायरी की तरह हैं।

अमोडेई ने ओपनएआई में सुरक्षा प्रमुख के रूप में काम करते समय देखा कि कंपनी व्यावसायिक दबाव के तहत कैसे धीरे-धीरे पीछे हट रही है। उन्होंने 2019 के माइक्रोसॉफ्ट निवेश के बारे में अपने नोट्स में एक महत्वपूर्ण विवरण लिखा: उन्होंने ओपनएआई के संविधान में "एकीकरण और सहायता" धारा शामिल की थी, जिसका अर्थ था कि अगर कोई अन्य कंपनी अधिक सुरक्षित एजीआई पथ खोजती है, तो ओपनएआई को प्रतिस्पर्धा बंद करके उस कंपनी की मदद करनी चाहिए। यह पूरे लेन-देन में उनके लिए सबसे महत्वपूर्ण सुरक्षा गारंटी थी।

जब अमोडेई ने त्वरित हस्ताक्षर किया, तो उसने एक बात पाई: माइक्रोसॉफ्ट को इस शर्त के खिलाफ वीटो का अधिकार मिल गया। इसका क्या मतलब है? यहां तक कि अगर कभी कोई प्रतिद्वंद्वी बेहतर रास्ता ढूंढ ले, तो माइक्रोसॉफ्ट केवल एक वाक्य से ओपनएआई की सहायता की दायित्व को बंद कर सकता है। शर्त कागज पर है, लेकिन हस्ताक्षर के दिन से ही यह कागज़ है।

अमोडेई बाद में OpenAI छोड़कर Anthropic की स्थापना की। दोनों कंपनियों के बीच प्रतिस्पर्धा, "AI का विकास कैसे किया जाना चाहिए" के मूलभूत विभाजन पर आधारित है।

गायब हो गए 20% कैलकुलेशन का वादा

रिपोर्ट में एक विस्तार है, जिसे पढ़ने के बाद पीठ पर ठंडक महसूस होती है, OpenAI के "सुपर अलाइनमेंट टीम" के बारे में।

2023 के मध्य में, अल्टमैन ने बर्कले में "धोखेबाज़ संरेखण" (AI जो परीक्षण के दौरान अच्छा बनता है, लेकिन वास्तविक लागू होने पर अपना ही रास्ता चुनता है) पर शोध करने वाले एक डॉक्टरल छात्र को ईमेल किया, कहते हुए कि वह इस समस्या के बारे में बहुत चिंतित हैं और 10 अरब डॉलर का एक वैश्विक शोध पुरस्कार स्थापित करने पर विचार कर रहे हैं। डॉक्टरल छात्र प्रेरित हुआ, अपनी पढ़ाई छोड़कर OpenAI में शामिल हो गया।

फिर अल्टमैन ने अपना फैसला बदल दिया: बाहरी पुरस्कार नहीं, बल्कि कंपनी के अंदर "सुपर अलाइनमेंट टीम" बनाई गई। कंपनी ने घोषणा की कि इस टीम को "मौजूदा कैलकुलेशन क्षमता का 20%" आवंटित किया जाएगा, जिसका संभावित मूल्य 10 बिलियन डॉलर से अधिक है। घोषणा का पाठ अत्यंत गंभीर था, जिसमें कहा गया कि यदि अलाइनमेंट समस्या का समाधान नहीं किया गया, तो AGI "मानवता को शक्तिहीन करने या यहां तक कि मानवता के विलुप्त होने" का कारण बन सकता है।

जैन लेइके, जिन्हें इस टीम का नेतृत्व करने के लिए नियुक्त किया गया था, बाद में बताया कि यह वादा स्वयं एक बहुत प्रभावी "कौशल बनाए रखने का उपकरण" था।

लेकिन वास्तविकता क्या है? इस टीम में काम करने वाले या उसके साथ घनिष्ठ संपर्क में रहने वाले चार लोगों के अनुसार, वास्तविक रूप से आवंटित की गई कैलकुलेशन क्षमता केवल कंपनी की कुल कैलकुलेशन क्षमता का 1% से 2% थी, और यह सबसे पुराने हार्डवेयर पर थी। बाद में इस टीम को विघटित कर दिया गया, और उनका मिशन पूरा नहीं हो पाया।

जब पत्रकार ने ओपनएआई के "अस्तित्वगत सुरक्षा" अनुसंधान के लिए जिम्मेदार लोगों के साक्षात्कार की मांग की, तो कंपनी के प्रचार विभाग की प्रतिक्रिया हैरान कर देने वाली थी: "यह एक... वास्तविक चीज़ नहीं है।"

अल्टमैन खुद बहुत शांत है। उन्होंने पत्रकारों से कहा कि उनकी "अंतर्दृष्टि बहुत सारी पारंपरिक एआई सुरक्षा चीजों के साथ मेल नहीं खाती", लेकिन OpenAI अभी भी "सुरक्षा परियोजनाएँ, या कम से कम सुरक्षा से जुड़ी परियोजनाएँ" करेगी।

अवैध रूप से हटाए गए सीएफओ और आगामी आईपीओ

द न्यूयॉर्कर की रिपोर्ट इस दिन के खराब समाचारों की सिर्फ आधी थी। उसी दिन, द इनफॉर्मेशन ने एक और बड़ा समाचार ब्रेक किया: ओपनएआई के सीएफओ सारा फ्रायर और अल्टमैन के बीच गंभीर मतभेद हो गया है।

फ्रायर ने अपने सहकर्मियों को निजी रूप से बताया कि उन्हें लगता है कि OpenAI इस साल आईपीओ के लिए तैयार नहीं है। दो कारण: पूरा करने के लिए बहुत अधिक प्रक्रियात्मक और संगठनात्मक कार्य है, और अल्टमैन द्वारा वादा किए गए 5 वर्षों में 6000 अरब डॉलर की कैपेसिटी खर्च का वित्तीय जोखिम बहुत अधिक है। उन्हें संदेह है कि OpenAI की आय की वृद्धि इन वादों को संभाल पाएगी या नहीं।

लेकिन अल्टमैन इस वर्ष की चौथी तिमाही में आईपीओ की ओर बढ़ना चाहते हैं।

अधिक अजीब बात यह है कि फ्रायर अब सीधे अल्टमैन को रिपोर्ट नहीं कर रही हैं। 2025 के अगस्त से, वह फिजी सिमो (OpenAI के एप्लिकेशन बिजनेस के CEO) को रिपोर्ट कर रही हैं। और सिमो ने पिछले हफ्ते स्वास्थ्य कारणों से बीमारी का दावा किया है। इस स्थिति को देखिए: एक IPO की ओर बढ़ रही कंपनी, जहां CEO और CFO में मूलभूत मतभेद हैं, CFO CEO को रिपोर्ट नहीं कर रहा है, और CFO का सीधा बॉस अवकाश पर है।

माइक्रोसॉफ्ट के अंदर के उच्च पदस्थ अधिकारी भी इसे झेल नहीं पा रहे हैं, और कह रहे हैं कि अल्टमैन "तथ्यों को विकृत कर रहे हैं, वादे तोड़ रहे हैं, और पहले से सहमत हुए समझौतों को बार-बार रद्द कर रहे हैं।" माइक्रोसॉफ्ट के एक उच्च पदस्थ अधिकारी ने इतना कहा: "मुझे लगता है कि उनकी संभावना है कि अंततः वे बर्नी मैडोफ या SBF के स्तर के धोखेबाज़ के रूप में याद किए जाएंगे।"

अल्टमैन की "दोहरी चेहरे" छवि

एक पूर्व OpenAI बोर्ड सदस्य ने पत्रकारों को अल्टमैन के दो गुणों के बारे में बताया। यह वाक्य पूरी रिपोर्ट का सबसे कठोर चरित्र चित्रण हो सकता है।

इस निदेशक ने कहा कि अल्टमैन में एक अत्यंत दुर्लभ गुणों का संयोजन है: वह प्रत्येक व्यक्तिगत बातचीत में दूसरों को प्रसन्न करने और उनके द्वारा पसंद किए जाने की तीव्र इच्छा रखता है। एक ओर, वह दूसरों को धोखा देने के संभावित परिणामों के प्रति लगभग सामाजिक-पागलपन के समान उदासीन है।

एक व्यक्ति में दोनों गुण एक साथ होना बहुत दुर्लभ है। लेकिन एक विक्रेता के लिए, यह सबसे आदर्श देन है।

एक रिपोर्ट में एक उपमा अच्छी तरह से कही गई है: जॉब्स के लिए "वास्तविकता विकृति क्षेत्र" के लिए प्रसिद्धि थी, जिससे वह पूरी दुनिया को अपने दृष्टिकोण पर विश्वास करा सकते थे। लेकिन यहां तक कि जॉब्स ने कभी ग्राहकों से नहीं कहा, "अगर आप मेरा MP3 प्लेयर नहीं खरीदते हैं, तो आपके प्यारे लोग मर जाएंगे।"

Altman ने AI के बारे में ऐसी ही बात कही थी।

एक सीईओ के व्यक्तित्व की समस्या, क्यों सभी के लिए जोखिम है

अल्टमैन अगर केवल एक सामान्य टेक कंपनी के सीईओ होते, तो इन आरोपों का अधिकतम एक शानदार व्यावसायिक अफवाह होता। लेकिन OpenAI सामान्य नहीं है।

अपने अनुसार, यह मानव इतिहास की सबसे शक्तिशाली प्रौद्योगिकी विकसित कर रहा है, जो वैश्विक अर्थव्यवस्था और श्रम बाजार को पुनर्गठित कर सकती है (OpenAI ने हाल ही में AI के कारण बेरोजगारी की समस्या पर एक नीति सफेद पुस्तिका जारी की है), और इसका उपयोग विशालकाय जैवरासायनिक हथियार बनाने या साइबर हमले करने के लिए भी किया जा सकता है।

सभी सुरक्षा बाधाएँ केवल नाम मात्र रह गई हैं। संस्थापक का गैर-लाभकारी लक्ष्य IPO की ओर बढ़ने के लिए त्याग दिया गया है। पूर्व मुख्य वैज्ञानिक और पूर्व सुरक्षा प्रबंधक दोनों ने CEO को "अविश्वसनीय" माना है। साझेदार CEO की तुलना SBF से कर रहे हैं। इस स्थिति में, इस CEO के पास क्या अधिकार है कि वह अकेले तय करे कि मानवता के भाग्य को बदल सकने वाले AI मॉडल को कब प्रकाशित किया जाए?

गैरी मार्कस (न्यूयॉर्क विश्वविद्यालय के एआई प्रोफेसर, लंबे समय से एआई सुरक्षा के समर्थक) ने रिपोर्ट पढ़ने के बाद एक वाक्य लिखा: अगर कोई भविष्य का OpenAI मॉडल बड़े पैमाने पर जैविक-रासायनिक हथियार बना सकता है या विनाशकारी साइबर हमला शुरू कर सकता है, तो क्या आप सचमुच आराम से महसूस करते हैं कि अल्टमैन एकल रूप से इसे जारी करने का फैसला करेगा?

OpenAI ने The New Yorker के प्रति उत्तर संक्षेप में दिया: "इस लेख का अधिकांश हिस्सा पहले से रिपोर्ट किए गए घटनाओं को दोहरा रहा है, अज्ञात स्रोतों और चयनित कहानियों के माध्यम से, जिनके स्रोत स्पष्ट रूप से व्यक्तिगत उद्देश्य रखते हैं।"

Altman के जवाब का तरीका: किसी भी आरोप का जवाब नहीं देना, नोट की प्रामाणिकता को नकारना नहीं, केवल प्रेरणा पर सवाल उठाना।

एक गैर-लाभकारी लाश पर एक पैसा उगाने वाला पेड़ उग गया

OpenAI का दशक, एक कहानी के अनुसूची के रूप में इस प्रकार लिखा गया है:

एक समूह जो AI के खतरों के बारे में चिंतित थे, उन्होंने एक उद्देश्य-आधारित गैर-लाभकारी संगठन की स्थापना की। संगठन ने असाधारण तकनीकी क्रांति की। इस क्रांति ने विशाल पूंजी को आकर्षित किया। पूंजी को रिटर्न की आवश्यकता थी। उद्देश्य धीरे-धीरे पीछे हटने लगा। सुरक्षा टीम को बंद कर दिया गया। प्रश्न करने वालों को हटा दिया गया। गैर-लाभकारी संरचना को लाभकारी संस्था में बदल दिया गया। जिसने पहले कंपनी को बंद करने का अधिकार रखा था, अब उसके सदस्य CEO के सहयोगियों से भर गए हैं। जिस कंपनी ने पहले 20% कैलकुलेशन पावर को मानवता की सुरक्षा के लिए समर्पित करने का वादा किया था, अब उसके प्रचारक कहते हैं, "यह कुछ ऐसा नहीं है जो मौजूद है।"

कहानी के पात्र को सौ से अधिक आंखों देखने वालों ने एक ही लेबल दिया: "सत्य से बंधा नहीं हुआ।"

वह इस कंपनी को 8500 अरब डॉलर से अधिक के आकलन के साथ आईपीओ के लिए तैयार कर रहा है।

यह जानकारी The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information आदि कई मीडिया स्रोतों की खुली रिपोर्ट्स से संकलित की गई है।

डिस्क्लेमर: इस पेज पर दी गई जानकारी थर्ड पार्टीज़ से प्राप्त की गई हो सकती है और यह जरूरी नहीं कि KuCoin के विचारों या राय को दर्शाती हो। यह सामग्री केवल सामान्य सूचनात्मक उद्देश्यों के लिए प्रदान की गई है, किसी भी प्रकार के प्रस्तुतीकरण या वारंटी के बिना, न ही इसे वित्तीय या निवेश सलाह के रूप में माना जाएगा। KuCoin किसी भी त्रुटि या चूक के लिए या इस जानकारी के इस्तेमाल से होने वाले किसी भी नतीजे के लिए उत्तरदायी नहीं होगा। डिजिटल संपत्तियों में निवेश जोखिम भरा हो सकता है। कृपया अपनी वित्तीय परिस्थितियों के आधार पर किसी प्रोडक्ट के जोखिमों और अपनी जोखिम सहनशीलता का सावधानीपूर्वक मूल्यांकन करें। अधिक जानकारी के लिए, कृपया हमारे उपयोग के नियम और जोखिम प्रकटीकरण देखें।