چین تھنک کی خبر، 17 مارچ، اسٹیبل کوائن جاری کنندہ ٹیٹر نے اعلان کیا کہ اس کی AI پلیٹ فارم QVAC Fabric نے مائیکروسافٹ BitNet (1-bit LLM) کے لیے دنیا کا پہلا کراس پلیٹ فارم LoRA فائن ٹیوننگ فریم ورک متعارف کرایا ہے، جس سے ارب پیرامیٹر والے زبانی ماڈلز عام ہارڈ ویئر، جیسے لیپ ٹاپ، صارفین کے GPU اور اسمارٹ فونز پر تربیت اور استنتاج کر سکتے ہیں۔
افسران کا کہنا ہے کہ یہ فریم ورک AI ماڈل تربیت کے لیے درکار ویڈیو میموری اور کمپوٹیشنل طاقت کی حد کو نمایاں طور پر کم کرتا ہے، جس میں Intel، AMD، Apple Silicon اور متعدد موبائل GPU (جیسے Adreno، Mali، Apple Bionic) شامل ہیں۔
ٹیسٹ کے دوران، تقریباً 1.25 ارب پیرامیٹرز والے BitNet ماڈل کو Samsung S25 پر تقریباً 10 منٹ میں فائن ٹیون کیا جا سکا؛ 10 ارب پیرامیٹرز والے ماڈل کو Samsung S25 پر تقریباً 1 گھنٹہ 18 منٹ اور iPhone 16 پر تقریباً 1 گھنٹہ 45 منٹ میں فائن ٹیون کیا گیا، اور ٹیم نے iPhone 16 پر 130 ارب پیرامیٹرز والے ماڈل کو فائن ٹیون کرنے میں کامیابی حاصل کی۔
پرفارمنس کے لحاظ سے، BitNet ماڈلز موبائل GPU پر CPU کے مقابلے میں 2 سے 11 گنا تیز نتائج دیتے ہیں۔ اس کے علاوہ، ٹیسٹنگ سے پتہ چلتا ہے کہ BitNet-1B کا انفرینس اور فائن ٹیوننگ کے کاموں میں 16-بٹ ماڈلز کے مقابلے میں ویڈیو میموری کا استعمال ایک زیادہ سے زیادہ 77.8% تک کم ہو جاتا ہے۔
پاولو ارڈونو نے کہا کہ یہ ٹیکنالوجی بڑے کلاؤڈ کمپوٹنگ اور مخصوص AI ہارڈویئر کی ضرورت کو کم کرنے کے لیے ڈیزائن کی گئی ہے، جس سے AI ماڈلز کی تربیت مقامی ڈیوائسز پر مکمل ہو سکے اور ڈیسینٹرلائزڈ AI اور فیڈریٹڈ لرننگ جیسے نئے ماڈلز کے لیے بنیاد فراہم ہو۔
