Odaily स्टार डेली के अनुसार, आधिकारिक घोषणा के अनुसार, Tether ने QVAC Fabric में क्रॉस-प्लेटफॉर्म BitNet LoRA फाइन-ट्यूनिंग फ्रेमवर्क लॉन्च किया है, जो Microsoft BitNet (1-बिट LLM) के प्रशिक्षण और निष्कर्षण को अनुकूलित करता है। यह फ्रेमवर्क कैलकुलेशन और मेमोरी की आवश्यकताओं को काफी कम करता है, जिससे अरब पैरामीटर स्तर के मॉडल को लैपटॉप, उपभोक्ता-स्तरीय GPU और स्मार्टफोन पर प्रशिक्षित और फाइन-ट्यून किया जा सकता है।
यह योजना पहली बार BitNet मॉडल को मोबाइल GPU (शामिल Adreno, Mali और Apple Bionic) पर सूक्ष्म समायोजित करती है, परीक्षण दर्शाते हैं कि 125M पैरामीटर मॉडल को लगभग 10 मिनट में सूक्ष्म समायोजित किया जा सकता है, 1B मॉडल को लगभग 1 घंटे में, और यहां तक कि मोबाइल पर 13B पैरामीटर मॉडल तक विस्तारित किया जा सकता है।
इसके अलावा, यह फ्रेमवर्क Intel, AMD और Apple Silicon जैसे हेटरोजीनियस हार्डवेयर का समर्थन करता है और पहली बार NVIDIA गैर-उपकरणों पर 1-बिट LLM LoRA सूक्ष्म-समायोजन को संभव बनाता है। प्रदर्शन के मामले में, BitNet मॉडल की मोबाइल GPU पर निष्पादन गति CPU की तुलना में 2 से 11 गुना तक बढ़ जाती है, जबकि विस्तृत स्मृति उपयोग पारंपरिक 16-बिट मॉडल की तुलना में अधिकतम 77.8% तक कम हो जाता है।
टेथर का कहना है कि यह तकनीक उच्च-स्तरीय कैलकुलेशन और क्लाउड इंफ्रास्ट्रक्चर पर निर्भरता को तोड़ने की उम्मीद करती है, जिससे AI प्रशिक्षण का विकेंद्रीकरण और स्थानीयकरण होगा और फेडरेटेड लर्निंग जैसे नए अनुप्रयोगों के लिए आधार प्रदान किया जाएगा।
