टेथर मोबाइल उपकरणों पर बिलियन-पैरामीटर मॉडल्स के प्रशिक्षण के लिए एआई फ्रेमवर्क लॉन्च करता है

iconChainthink
साझा करें
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconसारांश

expand icon
टेदर ने 17 मार्च, 2026 को अपने QVAC Fabric AI प्लेटफॉर्म पर Microsoft BitNet (1-bit LLM) के लिए क्रॉस-प्लेटफॉर्म LoRA फाइन-ट्यूनिंग फ्रेमवर्क जारी करने की घोषणा की, जो ऑन-चेन समाचारों में एक महत्वपूर्ण अपडेट को दर्शाता है। यह फ्रेमवर्क लैपटॉप, स्मार्टफोन और GPUs जैसे कंज्यूमर हार्डवेयर पर बिलियन-पैरामीटर मॉडल्स के प्रशिक्षण का समर्थन करता है। यह Intel, AMD, Apple Silicon, Adreno, Mali, और Bionic चिप्स पर काम करता है। एक 125 मिलियन पैरामीटर मॉडल को 10 मिनट में Samsung S25 पर प्रशिक्षित किया गया, जबकि 10 बिलियन मॉडल को 1 घंटे 18 मिनट लगे। BitNet मोबाइल GPUs पर CPUs की तुलना में 2 से 11 गुना तेज़ चलता है और 16-बिट मॉडल्स की तुलना में 77.8% कम मेमोरी का उपयोग करता है। यह AI + क्रिप्टो समाचार स्थानीय प्रशिक्षण और विकेंद्रीकृत AI उद्देश्यों को उजागर करता है।

ChainThink का संदेश, 17 मार्च, स्थिर मुद्रा जारीकर्ता Tether ने घोषणा की कि उसका AI प्लेटफॉर्म QVAC Fabric, Microsoft BitNet (1-bit LLM) के लिए दुनिया का पहला क्रॉस-प्लेटफॉर्म LoRA फाइन-ट्यूनिंग फ्रेमवर्क लॉन्च किया है, जो अरब पैरामीटर स्तर के भाषा मॉडल को सामान्य हार्डवेयर, जैसे लैपटॉप, उपभोक्ता GPU और स्मार्टफोन पर प्रशिक्षण और अनुमान के लिए सक्षम बनाता है।


अधिकारियों के अनुसार, यह फ्रेमवर्क AI मॉडल प्रशिक्षण के लिए आवश्यक वीडियो मेमोरी और कैलकुलेशन की सीमा को काफी कम करता है और Intel, AMD, Apple Silicon और कई मोबाइल GPU (जैसे Adreno, Mali, Apple Bionic) को समर्थन प्रदान करता है।


टेस्टिंग में, लगभग 1.25 अरब पैरामीटर वाला BitNet मॉडल Samsung S25 पर लगभग 10 मिनट में फाइन-ट्यून किया जा सकता है; 10 अरब पैरामीटर वाला मॉडल Samsung S25 पर लगभग 1 घंटा 18 मिनट और iPhone 16 पर लगभग 1 घंटा 45 मिनट में फाइन-ट्यून किया जाता है, और टीम ने iPhone 16 पर 130 अरब पैरामीटर वाले मॉडल को फाइन-ट्यून करने में सफलता प्राप्त की।


प्रदर्शन के मामले में, बिटनेट मॉडल की मोबाइल GPU पर निष्पादन गति CPU की तुलना में 2 से 11 गुना तक बढ़ सकती है। साथ ही, परीक्षणों से पता चला है कि बिटनेट-1B का निष्पादन और सूक्ष्म-समायोजन कार्यों में 16-बिट मॉडल की तुलना में वीएमएम उपयोग अधिकतम 77.8% तक कम हो सकता है।


पाओलो आर्डोइनो ने कहा कि यह तकनीक बड़े क्लाउड कंप्यूटिंग और विशिष्ट AI हार्डवेयर पर निर्भरता को कम करने के लिए डिज़ाइन की गई है, ताकि AI मॉडल ट्रेनिंग स्थानीय उपकरणों पर पूरी तरह से की जा सके और डिसेंट्रलाइज्ड AI और फेडरेटेड लर्निंग जैसे नए मॉडल्स के लिए आधार प्रदान किया जा सके।

डिस्क्लेमर: इस पेज पर दी गई जानकारी थर्ड पार्टीज़ से प्राप्त की गई हो सकती है और यह जरूरी नहीं कि KuCoin के विचारों या राय को दर्शाती हो। यह सामग्री केवल सामान्य सूचनात्मक उद्देश्यों के लिए प्रदान की गई है, किसी भी प्रकार के प्रस्तुतीकरण या वारंटी के बिना, न ही इसे वित्तीय या निवेश सलाह के रूप में माना जाएगा। KuCoin किसी भी त्रुटि या चूक के लिए या इस जानकारी के इस्तेमाल से होने वाले किसी भी नतीजे के लिए उत्तरदायी नहीं होगा। डिजिटल संपत्तियों में निवेश जोखिम भरा हो सकता है। कृपया अपनी वित्तीय परिस्थितियों के आधार पर किसी प्रोडक्ट के जोखिमों और अपनी जोखिम सहनशीलता का सावधानीपूर्वक मूल्यांकन करें। अधिक जानकारी के लिए, कृपया हमारे उपयोग के नियम और जोखिम प्रकटीकरण देखें।