ज़हिपू AI के इंजीनियरिंग अनुकूलन लागत की दक्षता और बाजार के विश्वास को बढ़ाते हैं

icon MarsBit
साझा करें
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconसारांश

expand icon
Zhipu AI के इंजीनियरिंग अनुकूलनों ने GLM-5 की दक्षता और स्थिरता में वृद्धि की, जिससे बाजार का आत्मविश्वास बढ़ा। KV Cache, GPU स्केड्यूलिंग और असामान्यता पता लगाने में सुधार से थ्रूपुट में 132% की वृद्धि हुई और त्रुटि दरें कम हुईं। ये बदलाव, मॉडल अपग्रेड नहीं, चीनी AI मॉडल्स के लागत लाभ को समर्थन देते हैं। AI क्षेत्र में भय और लालच सूचकांक में बढ़ती आशावादी भावना दिखाई दे रही है। SGLang फ्रेमवर्क में किए गए सुधारों ने समग्र परितंत्र को भी मदद की। मॉर्गन स्टेनले ने नोट किया कि अब चीनी मॉडल U.S. लागत के 15-20% पर समान प्रदर्शन प्रदान करते हैं, जिससे अपनाया जाना और मूल्यांकन बढ़ रहा है।

Labour Day holiday's first trading day, Zhipu and MiniMax both surged wildly.

5 मई को, ज़हीपु ने 10% से अधिक की वृद्धि की, और शेयर मूल्य फिर से 1,000 युआन के स्तर के करीब पहुंच गया, जबकि मिनीमैक्स ने 12.62% की वृद्धि की और 803 हांगकांग डॉलर पर बंद हुआ।

मॉर्गन स्टेनले की रिपोर्ट के अनुसार, स्टॉक की कीमतों में तेजी का कारण चीनी AI की अनूठी "मूल्य-प्रति-लागत की कहानी" है।

मॉरगन स्टैनले ने रिपोर्ट "China’s AI Path: More Bang For The Buck" में कहा कि कैलकुलेशन क्षमता के प्रतिबंध के संदर्भ में, चीन और संयुक्त राज्य अमेरिका के शीर्ष मॉडल्स की बुद्धिमत्ता तेजी से निकट आ रही है, और अंतर 3 से 6 महीने तक संकुचित हो गया है।

साथ ही, रिपोर्ट में बताया गया है कि चीनी मॉडल की वास्तविक विशेषता यह है कि वे अमेरिकी समकक्षों की तुलना में 15% से 20% की निष्कर्षण लागत पर लगभग समान स्तर की बुद्धिमत्ता प्राप्त कर सकते हैं।

यह वाक्य वास्तव में बहुत सरल है। सभी को सबसे शक्तिशाली मॉडल की आवश्यकता नहीं होती, लेकिन अधिकांश लोग सस्ते मॉडल का उपयोग करना चाहते हैं।

बाजार एक साधारण "घरेलू विकल्प" की कहानी नहीं खरीद रहा है, बल्कि चीनी AI अपनी लागत-दक्षता को वास्तविक उपयोग मात्रा, वास्तविक आय और वास्तविक मूल्यांकन लचीलेपन में बदल रहा है।

लेकिन इसके साथ ही यह सवाल भी उठता है कि यह कीमत-प्रदर्शन वास्तव में कहाँ से आ रहा है?

अगर केवल कम कीमत पर ग्राहक आकर्षित किए जाते हैं, तो यह जल्द ही कीमत प्रतिस्पर्धा बन जाएगा।

अगर केवल मॉडल डिस्टिलेशन है, तो अब Anthropic, OpenAI आदि कंपनियाँ डिस्टिलेशन के एक्सेस को बंद कर चुकी हैं, तो रेटिंग कम क्यों नहीं हुई, बल्कि बढ़ाई गई?

वास्तव में, इस कथा को अधिक विश्वसनीय बनाने वाली बात यह है कि Zhipu ने मई के पहले सप्ताह में तकनीकी ब्लॉग "Scaling Pain: अत्यधिक पैमाने पर Coding Agent निष्कर्षण अभ्यास" प्रकाशित किया।

यह ब्लॉग विशाल AGI के दृष्टिकोण के बारे में नहीं है, बल्कि KV Cache, थ्रूपुट, स्केड्यूलिंग, असामान्य आउटपुट जैसे नीचले स्तर के इंजीनियरिंग पहलुओं को बाजार के सामने रखता है।

सबसे महत्वपूर्ण बात यह है कि इसने चीनी AI के लागत-दक्षता के पीछे का रहस्य "खोल दिया"।

01

इस ब्लॉग में, ZhiPu ने बताया कि कैसे कैशिंग, शेड्यूलिंग और अपवाद मॉनिटरिंग को अनुकूलित करके समान GPU अधिक कार्य कर सकता है और त्रुटियाँ कम हो सकती हैं।

ज़ही पाती है कि AI का उपयोग अच्छा न होना जरूरी नहीं कि मॉडल बुद्धिमान न हो, बल्कि पृष्ठभूमि चलने वाली प्रणाली बहुत अव्यवस्थित हो सकती है। इसने कैश स्ट्रीम डेटा की समस्या को ठीक किया, GPU स्केड्यूलिंग और कैश पुनः उपयोग को अनुकूलित किया, और एक अलर्मर जो असामान्य आउटपुट को पहले से ही पहचान सके, जोड़ा।

परिणामस्वरूप, समान मॉडल और समान GPU के साथ, अधिक उपयोगकर्ताओं की सेवा की जा सकती है और त्रुटि की संभावना भी कम होती है। इसलिए इसकी "लागत-दक्षता की कहानी" केवल कीमत में कमी नहीं है, बल्कि इंजीनियरिंग अनुकूलन के माध्यम से हर GPU से अधिक स्थिर और उपयोगयोग्य कंप्यूटिंग पावर निकालने पर आधारित है।

नीचले इंजीनियरिंग अनुकूलन के बाद, GLM-5 श्रृंखला में Coding Agent स्थितियों में सिस्टम थ्रूपुट में अधिकतम 132% की वृद्धि हुई है, और सिस्टम असामान्य आउटपुट दर लगभग 10 प्रति 10,000 से घटकर 3 प्रति 10,000 हो गई है।

उदाहरण के लिए, पहले एक GPU एक घंटे में 100 कार्यों की सेवा कर सकता था, अब अनुकूलन के बाद, यह अधिकतम 232 कार्यों की सेवा कर सकता है।

अलग-अलग देखने पर, प्रत्येक बात अकेले जीत हासिल करने के लिए पर्याप्त नहीं है। लेकिन इन्हें एक साथ जोड़ने पर, समान कैलकुलेशन क्षमता के साथ एक गुना अधिक थ्रूपुट और एक से अधिक क्रम की स्थिरता में वृद्धि मिलती है।

मॉडल नहीं बदला है। बदला है मॉडल को "उपयोग किए जाने" का तरीका।

विशेष रूप से, मार्च से, Zhipu ने GLM-5 के ऑनलाइन मॉनिटरिंग और उपयोगकर्ता प्रतिक्रियाओं में तीन प्रकार की असामान्यताएँ देखीं: कोडेड टेक्स्ट, दोहराव, और दुर्लभ वर्ण। ये घटनाएँ सतही रूप से लंबे संदर्भ स्थितियों में सामान्य "बुद्धि में कमी" के समान दिखती हैं।

लेकिन ज़ही पटीम ने किसी भी मॉडल एक्यूरेसी कम करने वाले ऑप्टिमाइजेशन को लाइव नहीं किया है। तो असामान्यता मॉडल में है या इन्फरेंस चेन में?

बार-बार विश्लेषण और तर्क लॉग करने के बाद, उन्हें एक अप्रत्याशित प्रवेश बिंदु मिला: अनुमानित सैंपलिंग सूचकांक को असामान्यता पता लगाने के लिए संदर्भ संकेत के रूप में उपयोग किया जा सकता है।

स्पेकुलेटिव सैम्पलिंग मूल रूप से केवल एक प्रदर्शन अनुकूलन तकनीक थी। पहले एक रूपरेखा मॉडल द्वारा उम्मीदवार टोकन उत्पन्न किए जाते हैं, फिर लक्ष्य मॉडल द्वारा जांच की जाती है कि क्या उन्हें स्वीकार किया जाए, जिससे अंतिम आउटपुट वितरण को बदले बिना डिकोडिंग की दक्षता में सुधार होता है।

यह छोटे मॉडल को पहले तेजी से कई उत्तर उत्पन्न करने देता है, फिर बड़ा मॉडल सही उत्तर चुनता है, जिससे यह तेज़ और सटीक होता है।

ज़ही टीम ने पाया कि जब असामान्यता होती है, तो अनुमानित सैंपलिंग के दो सूचक एक स्थिर पैटर्न दर्शाते हैं। इसलिए उन्होंने अनुमानित सैंपलिंग को केवल प्रदर्शन अनुकूलन से आउटपुट गुणवत्ता के लिए वास्तविक समय मॉनिटरिंग सिग्नल में विस्तारित कर दिया।

जब spec_accept_length लगातार 1.4 से कम रहे और जेनरेट की गई लंबाई 128 टोकन से अधिक हो गई हो, या spec_accept_rate 0.96 से अधिक हो जाए, तो सिस्टम वर्तमान जेनरेशन को सक्रिय रूप से रोक देता है और अनुरोध को लोड बैलेंसर को पुनः प्रयास के लिए सौंप देता है।

ये दोनों संख्याएँ शरीर की जाँच सूचकांक की तरह हैं, अगर ये असामान्य हो जाएँ, तो इसका मतलब है कि मॉडल “बीमार” है और इसे पुनः शुरू करके इलाज की आवश्यकता है।

उपयोगकर्ता इस प्रक्रिया को महसूस नहीं करता है, लेकिन बैकएंड वास्तव में एक ऐसी पुनः शुरू करने की प्रक्रिया पूरी कर चुका है।

असामान्यता का मूल कारण KV Cache पुनः उपयोग टकराव है।

यह एक रसोई की तरह है, जहाँ भोजन के समय की व्यस्तता में कई लोग एक साथ ऑर्डर करने आते हैं।

सिस्टम को प्रत्येक उपयोगकर्ता के संदर्भ को अस्थायी रूप से सहेजना होता है, यानी KV Cache। इस मेज पर ग्राहकों ने पहले क्या ऑर्डर किया, कम मिर्च चाहिए या हरिया नहीं चाहिए। एक या दो ग्राहकों के लिए तो ठीक है, लेकिन जब ग्राहकों की संख्या बढ़ जाती है, तो वेटर गलतियाँ करने लगता है।

MiniMax

उच्च समानांतरता के दौरान, कुछ कैश को रीसाइकिल, पुनः उपयोग या पढ़ने का क्रम बिगड़ गया। परिणामस्वरूप, मॉडल गलत संदर्भ प्राप्त कर सकता है और अर्थहीन पाठ, पुनरावृत्ति या दुर्लभ अक्षर उत्पन्न कर सकता है।

रीजनिंग इंजन में, PD अलगाव आर्किटेक्चर के तहत, अनुरोध जीवनचक्र और KV कैश के पुनर्प्राप्ति और पुनः उपयोग के समयक्रम में असंगति है। जब समानांतर दबाव बढ़ता है, तो संघर्ष बढ़ जाता है, जिसका उपयोगकर्ता ओर प्रभाव विकृत टेक्स्ट और पुनरावृत्ति के रूप में होता है।

इसलिए कई अनुरोध एक साथ एक ही मेमोरी के लिए प्रतिस्पर्धा करते हैं, जिससे डेटा बिखर जाता है और उपयोगकर्ता को कोडेड अक्षर दिखाई देते हैं।

ZhiPu टीम ने इस बग की पहचान की और इसे ठीक कर दिया।

इसके अलावा, उन्होंने प्रमुख ओपन-सोर्स इन्फरेंस फ्रेमवर्क SGLang के सोर्स कोड स्तर पर HiCache मॉड्यूल के लोडिंग टाइमिंग की कमी, यानी read-before-ready, को खोजा और ठीक किया।

समाधान को SGLang समुदाय को Pull Request #22811 के माध्यम से प्रस्तुत किया गया और स्वीकार कर लिया गया।

SGLang एक ओपन सोर्स प्रोजेक्ट है, जिसका पूरा नाम बड़े भाषा मॉडल के लिए एक निष्पादन/सेवा फ्रेमवर्क के रूप में समझा जा सकता है। यह एक बड़ा मॉडल नहीं है, और न ही एक AI कंपनी है, बल्कि बड़े मॉडल को कुशलतापूर्वक चलाने के लिए एक बेसिक सॉफ्टवेयर सेट है।

ज़ह्पु ने SGLang ओपन-सोर्स इन्फरेंस फ्रेमवर्क का उपयोग करते समय एक हाई-कंकरेंट कैश बग की खोज की।

यह केवल अपने अंदर ही सुधार नहीं करता, ज़ही पिंग ने SGLang ओपन सोर्स प्रोजेक्ट को भी सुधार कोड सबमिट किया है।

प्रोजेक्ट मेंटेनर द्वारा समीक्षा के बाद स्वीकृत और मर्ज किया गया। इस प्रकार, यह ठीक किया गया संस्करण सार्वजनिक संस्करण में शामिल कर दिया गया, जिससे भविष्य में SGLang का उपयोग करने वाले अन्य डेवलपर्स और कंपनियाँ इसका लाभ उठा सकेंगी।

What does this mean?

यदि क्विनवेन का कोई डिप्लॉयमेंट पाथ SGLang+HiCache का उपयोग करता है, तो अलीबाबा भी ज़हीपु के द्वारा इस समस्या के पता लगाए जाने और ठीक किए जाने के कारण लाभान्वित होगा।

वही पुरानी बात है, मॉडल अपरिवर्तित रहा है, लेकिन इंजीनियरिंग अनुकूलन के माध्यम से, इसे उपयोग करते समय अधिक बुद्धिमान बनाया गया है।

02

ज़हपु का यह ब्लॉग वर्तमान में एक और गहरे स्तर को उजागर करता है।

चैटबॉट के युग में कम लागत का बड़ा हिस्सा कम ट्रेनिंग लागत से आता है, जिसमें से एक हिस्सा शीर्ष मॉडल से डिस्टिलेशन से आता है।

एजेंट युग में, यह ट्रिक काम नहीं करती।

इस साल तक, Anthropic और OpenAI ने क्रमशः डिस्टिलेशन एंट्री को बंद कर दिया है और अपने मॉडल के आउटपुट का उपयोग प्रतिस्पर्धी मॉडल्स को ट्रेन करने के लिए स्पष्ट रूप से प्रतिबंधित कर दिया है। डिस्टिलेशन के माध्यम से आसानी से आगे बढ़ने का रास्ता लगातार संकुचित हो रहा है।

लेकिन चीनी AI कंपनियों की कीमत-प्रदर्शन की कहानी कमजोर नहीं हुई है, बल्कि बाजार इस कहानी को मजबूत कर रहा है।

कारण यह है कि अनुपातिक मूल्य की परिभाषा बदल चुकी है।

चैटबॉट युग में, औसत संदर्भ 55K टोकन, एकल संवाद, कम समानांतरता।

एजेंट युग में, औसत संदर्भ 70K+ टोकन, लंबे समय तक के कार्य (8 घंटे स्तर), उच्च समानांतरता, उच्च प्रीफिक्स पुनः उपयोग।

चैटबॉट युग में, AI की किफायत का मापदंड बहुत सरल है। एक ही प्रश्न पूछने पर, किसका मॉडल सस्ता है और किसका उत्तर प्राथमिक स्तर के बराबर है।

उद्योग चर्चा कर रहा है कि प्रति मिलियन टोकन की कीमत क्या है, मॉडल के पैरामीटर कितने हैं, और रैंकिंग का स्कोर कितना अच्छा है।

एजेंट युग में, कोई इसके बारे में नहीं पूछता था, यह एल्गोरिदम अक्षम हो गया है।

उपयोगकर्ता एक उत्तर नहीं खरीद रहा है। वह एक पूरे कार्य के पूरा होने के परिणाम को खरीद रहा है।

एक कोडिंग एजेंट कोड पढ़ता है, संदर्भ समझता है, चरणों की योजना बनाता है, उपकरणों को कॉल करता है, फाइलें संशोधित करता है, परीक्षण चलाता है और विफलता पर पुनः प्रयास करता है। इसके द्वारा खप्त टोकन एकल प्रश्न-उत्तर की वृद्धि नहीं, बल्कि एक कार्यप्रवाह की कुल लागत होती है।

OpenRouter, दुनिया का सबसे बड़ा कॉल प्लेटफॉर्म, जनवरी 2026 के पहले सप्ताह में 6.4 ट्रिलियन टोकन को संभालता है, जो 9 फरवरी के सप्ताह तक बढ़कर 13 ट्रिलियन हो गया, एक महीने में दोगुना हो गया।

OpenRouter के अनुसार, 100K से 1M लंबे टेक्स्ट इंटरवल की वृद्धि बुलाने की मांग, एजेंट वर्कफ्लो का एक आम उपभोग परिदृश्य है।

लोग एआई का उपयोग करने का तरीका “संवादात्मक” से “प्रक्रियात्मक” में बदल चुके हैं। इसलिए, एआई की लागत-दक्षता की इकाई “टोकन प्रति इकाई” से “कार्य प्रति इकाई” में बदल गई है।

इससे ऐसा होता है कि कुछ मॉडल्स के टोकन सस्ते होते हैं, लेकिन मॉडल के प्रदर्शन की कमी के कारण, कार्य के दौरान यह हमेशा विफल हो जाता है या कार्य का परिणाम मानकों को पूरा नहीं करता, जिससे इसके एजेंट की कीमत सस्ती नहीं होती।

उदाहरण के लिए, एक 8-घंटे का कोडिंग कार्य, अगर बीच में एक बार डेटा खराब हो जाए, तो पूरी प्रक्रिया दोबारा शुरू करनी पड़ सकती है। बचाए गए टोकन की प्रति इकाई कीमत, बर्बाद हुए समय को पूरा नहीं कर सकती।

चीनी AI की कीमत-प्रदर्शन की कहानी बढ़ रही है।

पहले कहा जाता था कि "समान स्तर के उत्तर दें, मैं सस्ता हूँ।" अब कहा जाता है कि "समान जटिल कार्य के लिए, मैं कम लागत पर पूरा कर सकता हूँ।"

खुला स्रोत बुनियादी ढांचा भी चीन के AI के लिए एक नया रक्षात्मक खड़ा हो रहा है।

जैसा कि पहले उल्लेख किया गया, SGLang ऐसा ही है। चीनी AI की इंजीनियरिंग क्षमता अब ऊपरी समुदाय की ओर फैल रही है।

इस बात का मूल्य केवल यही नहीं है कि Zhipu ने एक बग को ठीक कर दिया, बल्कि यह है कि चीनी AI कंपनियाँ वास्तविक व्यावसायिक उपयोग में उच्च समानांतरता, लंबे संदर्भ और एजेंट कॉल समस्याओं को सार्वजनिक बुनियादी ढांचे की क्षमता में विपरीत रूप से संचित कर रही हैं।

जैसा कि पहले उल्लेख किया गया है, जब एक ठीक किया गया अपडेट SGLang जैसे ओपन-सोर्स फ्रेमवर्क में शामिल होता है, तो यह केवल Zhipu के अपने मॉडल के लिए ही सीमित नहीं रहता। इस फ्रेमवर्क का उपयोग करके बड़े मॉडल डिप्लॉय करने वाली सभी टीमों को अधिक स्थिर कैश, कम इन्फरेंस लागत और बेहतर एजेंट अनुभव प्राप्त होने का अवसर मिलता है।

मॉडल क्षमताओं को पीछे छोड़ा जा सकता है, कीमतों को नीचे दबाया जा सकता है, लेकिन बुनियादी ढांचा एक बार ओपन सोर्स इकोसिस्टम में शामिल हो जाने पर मानक, इंटरफेस और विकास की आदतें बन जाता है।

जिसने अपने इंजीनियरिंग अनुभव को इन नींव के प्रणालियों में जल्दी से शामिल किया, वह अगली एआई एप्लिकेशन बूम में अपनी स्थिति को आसानी से कायम रख पाएगा।

03

Capital markets पर वापस आएं।

AI बड़े मॉडल कॉन्सेप्ट स्टॉक्स में सभी ऊपर की ओर बढ़ रहे हैं, क्या पूंजी AI कंपनियों को फिर से मूल्यांकन करने को तैयार है? बाजार क्या खरीद रहा है?

जवाब है, कैपिटल मार्केट "चीनी AI कंपनियाँ कम रीजनिंग लागत पर टॉप-टियर इंटेलिजेंस के करीब पहुँच सकती हैं" इस कहानी के लिए भुगतान कर रहे हैं।

OpenRouter के डेटा के संदर्भ में भी।

2025 अप्रैल से 2026 मार्च तक, चीन के शीर्ष AI कंपनियों का टोकन उपभोग हिस्सा 5% से बढ़कर 32% हो गया। अमेरिकी शीर्ष मॉडल का हिस्सा 58% से घटकर 19% हो गया।

2026 के फरवरी-मार्च में MiniMax, ZhiPu और Alibaba के टोकन उपयोग में पिछले दिसंबर की तुलना में 4-6 गुना की वृद्धि हुई।

टोकन कॉल के अलावा, चीनी AI एक पूरी तरह से विदेशी विशालकायों से अलग विकास तर्क विकसित कर रहा है।

विदेशी शीर्ष मॉडल "क्षमता प्रीमियम" बेच रहे हैं।

जितना मॉडल अधिक क्षमतवान होगा, उतना ही एक बार कॉल करने में महंगा होगा, और उपयोगकर्ता सबसे अधिक बुद्धिमान के लिए भुगतान करते हैं। Claude, GPT-5, Gemini सभी इस दिशा में बढ़ रहे हैं।

चीनी AI "इंजीनियरिंग" बेच रहा है।

मॉडल क्षमता शीर्ष स्तर के मॉडल के करीब पहुंच गई है, लेकिन कीमत, लेटेंसी और कॉल लागू होने की सीमा कम है, जो अधिकांश उच्च आवृत्ति स्थितियों की आवश्यकताओं के अधिक अनुकूल है।

मॉर्गन स्टैनले की रिपोर्ट में उल्लेख किया गया है कि चीनी मॉडल की इनपुट कीमत लगभग 0.3 डॉलर/मिलियन टोकन है, जबकि कुछ विदेशी समकक्ष उत्पादों की कीमत लगभग 5 डॉलर है। इसके बीच का अंतर कई गुना है।

जब AI एक प्रयोगात्मक उपकरण से उत्पादकता उपकरण में बदल जाता है, तो लागत-दक्षता सीधे कॉल आवृत्ति निर्धारित करती है।

मॉडल सस्ता होगा, तो कंपनियाँ अधिक कस्टमर सर्विस, कोडिंग, मार्केटिंग और डेटा विश्लेषण के कार्य उस पर सौंपने की हिम्मत करेंगी। जितने अधिक कार्य चलेंगे, उतने ही अधिक टोकन खर्च होंगे, जिससे प्लेटफॉर्म बुनियादी ढांचे की लागत को बाँट सकेगा।

MiniMax

मुझे लगता है कि इस चरण में यह एक फ्लायव्हील बन सकता है।

पहला चरण, विकासकों और उद्यमों को आकर्षित करने के लिए कम API मूल्य और बेहतर एक्सेस क्षमता के साथ है।

दूसरा चक्र, अधिक कॉल आह्वान अधिक वास्तविक परिदृश्य लाएगा, जो मॉडल और निष्कर्षण प्रणाली को आगे अनुकूलित करने के लिए बाध्य करेगा।

तीसरा चरण, जिसके बारे में ज़हीपु द्वारा प्रकाशित तकनीकी ब्लॉग पोस्ट में बात की गई है, वह है इंजीनियरिंग अनुकूलन के माध्यम से प्रति टोकन और प्रति कार्य लागत को कम करना, ताकि निर्माता लगातार कीमतें कम कर सकें, मात्रा बढ़ा सकें, या उच्च मूल्य वाले स्थितियों में कीमतें बढ़ा सकें।

चौथा चरण, जब टोकन का उपभोग AI युग का नया ट्रैफ़िक बन जाता है, तो जो कोई अधिक टोकन को कम लागत से संभाल सकता है, वह अगले चरण की प्लेटफ़ॉर्म कंपनी के करीब पहुँचता है।

अगर केवल मॉडल की कीमत कम होती है, तो बाजार इसे सब्सिडी और कीमत युद्ध के रूप में चिंतित होगा, जिससे लगातार पैसा खर्च हो रहा होगा, और अंततः किसी का भी बैलेंस सहन नहीं कर पाएगा।

और, कीमत की युद्ध उच्च मूल्यांकन को नहीं बनाए रख सकती।

लेकिन यदि कीमत में कमी के पीछे थ्रूपुट में वृद्धि, कैश का पुनः उपयोग, अपवाद दर में कमी और शेड्यूलिंग दक्षता में सुधार है, तो कम कीमत लाभ के बलिदान के बजाय वृद्धि के लिए नहीं, बल्कि इंजीनियरिंग क्षमता द्वारा मुक्त किए गए लागत स्थान है।

मूल्य युद्ध और इस इंजीनियरिंग अनुकूलन के परिणाम, हालांकि दोनों मॉडल को सस्ता बनाते हैं और फाइनेंशियल रिपोर्ट में लगभग समान दिख सकते हैं, वैल्यूएशन मॉडल में बहुत अलग होते हैं।

पहला सब्सिडी है, बाजार इसे डिस्काउंट देगा। दूसरा इंजीनियरिंग बैरियर है, बाजार इसे प्रीमियम देगा।

अंत में एक निर्णय पर पहुँचा जा सकता है।

पिछले समय में AI कंपनियों का मूल्यांकन मॉडल क्षमता की सीमा और AGI के कितना करीब होने पर किया जाता था। उस समय बाजार “सबसे शक्तिशाली बुद्धिमत्ता” के लिए भुगतान कर रहा था, और सबसे शक्तिशाली बुद्धिमत्ता की परिभाषा धीरे-धीरे अस्पष्ट होती गई, जबकि प्रत्येक कॉल की लागत बढ़ती गई।

अब एजेंट युग में, मूल्यांकन के लिए लागत का निम्न सीमा देखना जरूरी है। यह देखना कि कौन स्मार्ट, स्थिर, सस्ता और बड़े पैमाने पर प्रदान कर सकता है।

जो लोग सबसे उन्नत "बुद्धिमत्ता" की तलाश में हैं, शायद यह चीनी AI की ताकत नहीं है।

हालांकि चीनी AI सबसे अधिक संभावना है कि "बुद्धिमान" शब्द को ऐसी बुनियादी ढांचे में बदल देगा जिसे हर व्यक्ति और उद्यम उपयोग कर सके।

और बाजार केवल उन कंपनियों के लिए भुगतान करने को तैयार है जो अपनी तर्कशक्ति स्पष्ट रूप से समझा सकती हैं।

यह लेख वेचेन ग्रुप "अक्षर बैंग" (ID: wujicaijing) से आया है, लेखक: मियाओ जेंग

डिस्क्लेमर: इस पेज पर दी गई जानकारी थर्ड पार्टीज़ से प्राप्त की गई हो सकती है और यह जरूरी नहीं कि KuCoin के विचारों या राय को दर्शाती हो। यह सामग्री केवल सामान्य सूचनात्मक उद्देश्यों के लिए प्रदान की गई है, किसी भी प्रकार के प्रस्तुतीकरण या वारंटी के बिना, न ही इसे वित्तीय या निवेश सलाह के रूप में माना जाएगा। KuCoin किसी भी त्रुटि या चूक के लिए या इस जानकारी के इस्तेमाल से होने वाले किसी भी नतीजे के लिए उत्तरदायी नहीं होगा। डिजिटल संपत्तियों में निवेश जोखिम भरा हो सकता है। कृपया अपनी वित्तीय परिस्थितियों के आधार पर किसी प्रोडक्ट के जोखिमों और अपनी जोखिम सहनशीलता का सावधानीपूर्वक मूल्यांकन करें। अधिक जानकारी के लिए, कृपया हमारे उपयोग के नियम और जोखिम प्रकटीकरण देखें।