ChainThink का संदेश, 17 मार्च, स्थिर मुद्रा जारीकर्ता Tether ने घोषणा की कि उसका AI प्लेटफॉर्म QVAC Fabric, Microsoft BitNet (1-bit LLM) के लिए दुनिया का पहला क्रॉस-प्लेटफॉर्म LoRA फाइन-ट्यूनिंग फ्रेमवर्क लॉन्च किया है, जो अरब पैरामीटर स्तर के भाषा मॉडल को सामान्य हार्डवेयर, जैसे लैपटॉप, उपभोक्ता GPU और स्मार्टफोन पर प्रशिक्षण और अनुमान के लिए सक्षम बनाता है।
अधिकारियों के अनुसार, यह फ्रेमवर्क AI मॉडल प्रशिक्षण के लिए आवश्यक वीडियो मेमोरी और कैलकुलेशन की सीमा को काफी कम करता है और Intel, AMD, Apple Silicon और कई मोबाइल GPU (जैसे Adreno, Mali, Apple Bionic) को समर्थन प्रदान करता है।
टेस्टिंग में, लगभग 1.25 अरब पैरामीटर वाला BitNet मॉडल Samsung S25 पर लगभग 10 मिनट में फाइन-ट्यून किया जा सकता है; 10 अरब पैरामीटर वाला मॉडल Samsung S25 पर लगभग 1 घंटा 18 मिनट और iPhone 16 पर लगभग 1 घंटा 45 मिनट में फाइन-ट्यून किया जाता है, और टीम ने iPhone 16 पर 130 अरब पैरामीटर वाले मॉडल को फाइन-ट्यून करने में सफलता प्राप्त की।
प्रदर्शन के मामले में, बिटनेट मॉडल की मोबाइल GPU पर निष्पादन गति CPU की तुलना में 2 से 11 गुना तक बढ़ सकती है। साथ ही, परीक्षणों से पता चला है कि बिटनेट-1B का निष्पादन और सूक्ष्म-समायोजन कार्यों में 16-बिट मॉडल की तुलना में वीएमएम उपयोग अधिकतम 77.8% तक कम हो सकता है।
पाओलो आर्डोइनो ने कहा कि यह तकनीक बड़े क्लाउड कंप्यूटिंग और विशिष्ट AI हार्डवेयर पर निर्भरता को कम करने के लिए डिज़ाइन की गई है, ताकि AI मॉडल ट्रेनिंग स्थानीय उपकरणों पर पूरी तरह से की जा सके और डिसेंट्रलाइज्ड AI और फेडरेटेड लर्निंग जैसे नए मॉडल्स के लिए आधार प्रदान किया जा सके।
