टेथर ने उपभोक्ता उपकरणों पर अरब पैरामीटर वाले एआई मॉडल्स के प्रशिक्षण के लिए क्रॉस-प्लेटफॉर्म बिटनेट लोरा फ्रेमवर्क लॉन्च किया

iconKuCoinFlash
साझा करें
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconसारांश

expand icon
टेथर ने ऑन-चेन समाचार और एआई + क्रिप्टो समाचार के लिए एक क्रॉस-प्लेटफॉर्म बिटनेट लोरा फ्रेमवर्क की घोषणा की है, जिससे बिलियन पैरामीटर एआई मॉडल्स को उपभोक्ता उपकरणों पर प्रशिक्षित किया जा सकता है। यह फ्रेमवर्क, क्यूवीएसी फैब्रिक का हिस्सा है, जो माइक्रोसॉफ्ट के बिटनेट को कम कंप्यूटेशनल और मेमोरी उपयोग के लिए अनुकूलित करता है। यह Adreno, Mali, Apple Bionic और अधिक को समर्थन करता है, जिसमें 1B मॉडल्स को लगभग एक घंटे में फाइन-ट्यून किया जाता है। अब NVIDIA के अलावा के हार्डवेयर 1-बिट LLM प्रशिक्षण को समर्थन करता है। बिटनेट मॉडल्स मोबाइल GPU पर CPU की तुलना में 2–11x तेज़ चलते हैं, और 16-बिट मॉडल्स की तुलना में 77.8% कम VRAM का उपयोग करते हैं। टेथर कहता है कि यह प्रौद्योगिकी क्लाउड पर निर्भरता को कम करती है और डिसेंट्रलाइज्ड एआई प्रशिक्षण को समर्थन करती है।

Odaily स्टार डेली के अनुसार, आधिकारिक घोषणा के अनुसार, Tether ने QVAC Fabric में क्रॉस-प्लेटफॉर्म BitNet LoRA फाइन-ट्यूनिंग फ्रेमवर्क लॉन्च किया है, जो Microsoft BitNet (1-बिट LLM) के प्रशिक्षण और निष्कर्षण को अनुकूलित करता है। यह फ्रेमवर्क कैलकुलेशन और मेमोरी की आवश्यकताओं को काफी कम करता है, जिससे अरब पैरामीटर स्तर के मॉडल को लैपटॉप, उपभोक्ता-स्तरीय GPU और स्मार्टफोन पर प्रशिक्षित और फाइन-ट्यून किया जा सकता है।

यह योजना पहली बार BitNet मॉडल को मोबाइल GPU (शामिल Adreno, Mali और Apple Bionic) पर सूक्ष्म समायोजित करती है, परीक्षण दर्शाते हैं कि 125M पैरामीटर मॉडल को लगभग 10 मिनट में सूक्ष्म समायोजित किया जा सकता है, 1B मॉडल को लगभग 1 घंटे में, और यहां तक कि मोबाइल पर 13B पैरामीटर मॉडल तक विस्तारित किया जा सकता है।

इसके अलावा, यह फ्रेमवर्क Intel, AMD और Apple Silicon जैसे हेटरोजीनियस हार्डवेयर का समर्थन करता है और पहली बार NVIDIA गैर-उपकरणों पर 1-बिट LLM LoRA सूक्ष्म-समायोजन को संभव बनाता है। प्रदर्शन के मामले में, BitNet मॉडल की मोबाइल GPU पर निष्पादन गति CPU की तुलना में 2 से 11 गुना तक बढ़ जाती है, जबकि विस्तृत स्मृति उपयोग पारंपरिक 16-बिट मॉडल की तुलना में अधिकतम 77.8% तक कम हो जाता है।

टेथर का कहना है कि यह तकनीक उच्च-स्तरीय कैलकुलेशन और क्लाउड इंफ्रास्ट्रक्चर पर निर्भरता को तोड़ने की उम्मीद करती है, जिससे AI प्रशिक्षण का विकेंद्रीकरण और स्थानीयकरण होगा और फेडरेटेड लर्निंग जैसे नए अनुप्रयोगों के लिए आधार प्रदान किया जाएगा।

डिस्क्लेमर: इस पेज पर दी गई जानकारी थर्ड पार्टीज़ से प्राप्त की गई हो सकती है और यह जरूरी नहीं कि KuCoin के विचारों या राय को दर्शाती हो। यह सामग्री केवल सामान्य सूचनात्मक उद्देश्यों के लिए प्रदान की गई है, किसी भी प्रकार के प्रस्तुतीकरण या वारंटी के बिना, न ही इसे वित्तीय या निवेश सलाह के रूप में माना जाएगा। KuCoin किसी भी त्रुटि या चूक के लिए या इस जानकारी के इस्तेमाल से होने वाले किसी भी नतीजे के लिए उत्तरदायी नहीं होगा। डिजिटल संपत्तियों में निवेश जोखिम भरा हो सकता है। कृपया अपनी वित्तीय परिस्थितियों के आधार पर किसी प्रोडक्ट के जोखिमों और अपनी जोखिम सहनशीलता का सावधानीपूर्वक मूल्यांकन करें। अधिक जानकारी के लिए, कृपया हमारे उपयोग के नियम और जोखिम प्रकटीकरण देखें।