اوڈیلی پلانٹ ریپورٹ کے مطابق، افسرانی اعلان کے مطابق، ٹیسٹر نے کراس پلیٹ فارم BitNet LoRA فریم ورک کو QVAC Fabric میں متعارف کرایا ہے، جو مائیکروسافٹ BitNet (1-bit LLM) کی تربیت اور استنتاج کو بہتر بناتا ہے۔ یہ فریم ورک کمپوٹیشنل طاقت اور میموری کی ضرورت کو نمایاں طور پر کم کرتا ہے، جس سے ارب پیرامیٹرز والے ماڈلز لیپ ٹاپ، صارفین کے GPU اور اسمارٹ فونز پر تربیت اور فائن ٹیوننگ کی جا سکتی ہے۔
یہ منصوبہ BitNet ماڈل کو موبائل گیم پر (Adreno، Mali اور Apple Bionic سمیت) فائن ٹیون کرنے کا پہلا طریقہ ہے۔ ٹیسٹنگ سے پتہ چلتا ہے کہ 125M پیرامیٹرز والے ماڈل کو تقریباً 10 منٹ میں فائن ٹیون کیا جا سکتا ہے، جبکہ 1B ماڈل تقریباً ایک گھنٹے میں، اور یہاں تک کہ موبائل پر 13B پیرامیٹرز والے ماڈل تک وسعت دی جا سکتی ہے۔
اس کے علاوہ، یہ فریم ورک Intel، AMD اور Apple Silicon جیسے ہیٹرو جینک ہارڈ ویئر کو سپورٹ کرتا ہے اور نیٹ ورک کے علاوہ کسی بھی ڈیوائس پر 1-bit LLM LoRA فائن ٹیوننگ کو پہلی بار ممکن بناتا ہے۔ پرفارمنس کے لحاظ سے، BitNet ماڈلز موبائل GPU پر CPU کے مقابلے میں 2 سے 11 گنا تیز رفتاری کے ساتھ رن ہوتے ہیں، جبکہ ٹریڈیشنل 16-bit ماڈلز کے مقابلے میں ویڈیو میموری استعمال میں زیادہ سے زیادہ 77.8% تک کمی آتی ہے۔
ٹیثر کا کہنا ہے کہ یہ ٹیکنالوجی اعلیٰ کمپوٹیشنل طاقت اور کلاؤڈ انفراسٹرکچر کے اعتماد کو توڑنے کے قابل ہے، جس سے AI ٹریننگ کو غیر مرکزی اور مقامی طور پر ترقی دی جا سکے گی، اور فیڈریٹڈ لرننگ جیسے نئے اطلاقی منصوبوں کے لیے بنیاد فراہم کی جا سکے گی۔
