PANews, 21 मार्च को, आधिकारिक घोषणा के अनुसार, Tether ने QVAC Fabric में क्रॉस-प्लेटफॉर्म BitNet LoRA सूक्ष्म-समायोजन ढांचा लॉन्च किया है, जो Microsoft BitNet (1-बिट LLM) के प्रशिक्षण और निष्पादन को अनुकूलित करता है। यह ढांचा कैलकुलेशन और मेमोरी की आवश्यकताओं को काफी कम करता है, जिससे अरब पैरामीटर स्तर के मॉडल को लैपटॉप, उपभोक्ता-स्तरीय GPU और स्मार्टफोन पर प्रशिक्षण और सूक्ष्म-समायोजन किया जा सकता है। यह समाधान पहली बार BitNet मॉडल को मोबाइल GPU (जिसमें Adreno, Mali और Apple Bionic शामिल हैं) पर सूक्ष्म-समायोजन करने में सफल हुआ है। परीक्षणों से पता चलता है कि 125M पैरामीटर मॉडल को लगभग 10 मिनट में सूक्ष्म-समायोजित किया जा सकता है, 1B मॉडल को लगभग 1 घंटे में, और स्मार्टफोन पर 13B पैरामीटर मॉडल तक विस्तारित किया जा सकता है। इसके अलावा, यह ढांचा Intel, AMD और Apple Silicon जैसे हेटरोजीनियस हार्डवेयर को समर्थन करता है और NVIDIA डिवाइस के बिना 1-बिट LLM LoRA सूक्ष्म-समायोजन को पहली बार संभव बनाता है। प्रदर्शन के मामले में, मोबाइल GPU पर BitNet मॉडल का निष्पादन गति CPU की तुलना में 2 से 11 गुना तक बढ़ जाती है, और पारंपरिक 16-बिट मॉडल की तुलना में VRAM उपयोग में अधिकतम 77.8% तक कमी होती है। Tether का कहना है कि यह प्रौद्योगिकी उच्च-स्तरीय कैलकुलेशन और क्लाउड इंफ्रास्ट्रक्चर पर निर्भरता को तोड़ने की संभावना रखती है, AI प्रशिक्षण को केंद्रीयकृत और स्थानीयकृत दिशा में ले जाती है, और फेडरेटेड लर्निंग जैसे नवीन अनुप्रयोगों के लिए मूलभूत सुविधा प्रदान करती है।
टेथर ने उपभोक्ता उपकरणों पर अरब पैरामीटर मॉडल प्रशिक्षण के लिए क्रॉस-प्लेटफॉर्म बिटनेट लोरा फ्रेमवर्क लॉन्च किया
PANewsसाझा करें






टेथर ने ऑन-चेन समाचार और क्रिप्टो समाचार के लिए एक क्रॉस-प्लेटफॉर्म बिटनेट लोरा फ्रेमवर्क लॉन्च किया है, जिससे उपभोक्ता हार्डवेयर पर माइक्रोसॉफ्ट के 1-बिट बिटनेट मॉडल्स को ट्रेन किया जा सकता है। यह टूल बिलियन पैरामीटर मॉडल्स को लैपटॉप, स्मार्टफोन और एड्रेनो, माली और ऐपल बायोनिक जैसे GPU पर चलने की सुविधा देता है। 1B पैरामीटर मॉडल को फाइन-ट्यून करने में लगभग एक घंटा लगता है। यह सिस्टम Intel, AMD और Apple Silicon को सपोर्ट करता है, जिससे पहली बार 1-बिट LLM LoRA ट्यूनिंग NVIDIA डिवाइस के अलावा अन्य डिवाइस पर उपलब्ध हो गई है। मोबाइल GPU पर बिटनेट मॉडल्स CPU की तुलना में 2–11x तेज़ चलते हैं और 16-बिट संस्करणों की तुलना में 77.8% कम मेमोरी का उपयोग करते हैं। टेथर का दावा है कि यह प्रौद्योगिकी क्लाउड पर निर्भरता को कम कर सकती है और डिसेंट्रलाइज्ड AI ट्रेनिंग को संभव बना सकती है।
स्रोत:मूल दिखाएं
डिस्क्लेमर: इस पेज पर दी गई जानकारी थर्ड पार्टीज़ से प्राप्त की गई हो सकती है और यह जरूरी नहीं कि KuCoin के विचारों या राय को दर्शाती हो। यह सामग्री केवल सामान्य सूचनात्मक उद्देश्यों के लिए प्रदान की गई है, किसी भी प्रकार के प्रस्तुतीकरण या वारंटी के बिना, न ही इसे वित्तीय या निवेश सलाह के रूप में माना जाएगा। KuCoin किसी भी त्रुटि या चूक के लिए या इस जानकारी के इस्तेमाल से होने वाले किसी भी नतीजे के लिए उत्तरदायी नहीं होगा।
डिजिटल संपत्तियों में निवेश जोखिम भरा हो सकता है। कृपया अपनी वित्तीय परिस्थितियों के आधार पर किसी प्रोडक्ट के जोखिमों और अपनी जोखिम सहनशीलता का सावधानीपूर्वक मूल्यांकन करें। अधिक जानकारी के लिए, कृपया हमारे उपयोग के नियम और जोखिम प्रकटीकरण देखें।