ChainThink সংবাদ, ৩ মার্চ ১৭ তারিখে, স্থিতিশীল কয়েন প্রকাশক Tether ঘোষণা করেছে যে তাদের AI প্ল্যাটফর্ম QVAC Fabric Microsoft BitNet (1-bit LLM)-এর জন্য প্রথম বিশ্বব্যাপী ক্রস-প্ল্যাটফর্ম LoRA মাইক্রো-টিউনিং ফ্রেমওয়ার্ক চালু করেছে, যা বিলিয়ন প্যারামিটার লেভেল ভাষার মডেলকে সাধারণ হার্ডওয়্যারে প্রশিক্ষণ ও অনুমান সম্পন্ন করতে সক্ষম করে, যার মধ্যে রয়েছে ল্যাপটপ, কনজিউমার-লেভেল GPU এবং স্মার্টফোন।
অফিসিয়াল হিসেবে বলা হয়েছে, এই ফ্রেমওয়ার্ক AI মডেলের প্রশিক্ষণের জন্য প্রয়োজনীয় মেমরি এবং কম্পিউটিং শক্তির সীমা উল্লেখযোগ্যভাবে কমিয়ে দেয়, এটি Intel, AMD, Apple Silicon এবং বিভিন্ন মোবাইল GPU (যেমন Adreno, Mali, Apple Bionic)-কে সমর্থন করে।
পরীক্ষার সময়, প্রায় ১.২৫ কোটি প্যারামিটার BitNet মডেল Samsung S25-এ প্রায় ১০ মিনিটে মাইক্রো-টিউনিং সম্পন্ন করতে সক্ষম হয়েছে; ১০০ কোটি প্যারামিটার মডেলটি Samsung S25-এ প্রায় ১ ঘণ্টা ১৮ মিনিটে সম্পন্ন হয়েছে এবং iPhone 16-এ প্রায় ১ ঘণ্টা ৪৫ মিনিটে সম্পন্ন হয়েছে; দলটি iPhone 16-এ ১৩০ কোটি প্যারামিটার মডেলের সফল মাইক্রো-টিউনিং পর্যন্ত অর্জন করেছে।
পারফরমেন্সের ক্ষেত্রে, BitNet মডেল মোবাইল GPU-তে অনুমানের গতিতে CPU-এর চেয়ে ২ থেকে ১১ গুণ উন্নতি করতে পারে। পাশাপাশি, পরীক্ষায় দেখা গেছে BitNet-1B-এর অনুমান এবং মাইক্রো-টিউনিং কার্যক্রমে মেমরি ব্যবহার ১৬-বিট মডেলের তুলনায় সর্বাধিক ৭৭.৮% পর্যন্ত কমাতে পারে।
Paolo Ardoino বলেছেন, এই প্রযুক্তির উদ্দেশ্য হলো বড় ক্লাউড কম্পিউটিং এবং নির্দিষ্ট AI হার্ডওয়্যারের উপর নির্ভরতা কমানো, যাতে AI মডেলের প্রশিক্ষণ স্থানীয় ডিভাইসেও সম্পন্ন করা যায় এবং কেন্দ্রীভূত AI এবং ফেডারেটেড লার্নিং-এর মতো নতুন মডেলের জন্য ভিত্তি প্রদান করা।
