ٹیذر موبائل ڈیوائسز پر بلین پیرامیٹر ماڈلز کی تربیت کے لیے AI فریم ورک لانچ کرتا ہے

iconChainthink
بانٹیں
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconخلاصہ

expand icon
ٹیذر نے 17 مارچ، 2026 کو اپنے QVAC Fabric AI پلیٹ فارم پر مائیکروسافٹ BitNet (1-bit LLM) کے لیے ایک کراس پلیٹ فارم LoRA فائن ٹیوننگ فریم ورک کی اشاعت کا اعلان کیا، جو آن چین خبروں میں ایک اہم اپ ڈیٹ ہے۔ یہ فریم ورک کنسومر ہارڈویئر جیسے لیپ ٹاپ، اسمارٹ فون اور GPU پر بلین پیرامیٹر ماڈلز کی تربیت کی سہولت فراہم کرتا ہے۔ یہ Intel، AMD، Apple Silicon، Adreno، Mali اور Bionic چپس پر کام کرتا ہے۔ ایک 125 ملین پیرامیٹر ماڈل Samsung S25 پر صرف 10 منٹ میں تربیت یافتہ ہوا، جبکہ ایک 10 بلین پیرامیٹر ماڈل نے 1 گھنٹہ 18 منٹ لگائے۔ BitNet موبائل GPU پر CPU کے مقابلے میں 2 سے 11 گنا تیز چلتا ہے اور 16-bit ماڈلز کے مقابلے میں 77.8% کم میموری استعمال کرتا ہے۔ یہ AI + کرپٹو خبر مقامی تربیت اور غیر مرکزی AI کے مقاصد کو واضح کرتی ہے۔

چین تھنک کی خبر، 17 مارچ، اسٹیبل کوائن جاری کنندہ ٹیٹر نے اعلان کیا کہ اس کی AI پلیٹ فارم QVAC Fabric نے مائیکروسافٹ BitNet (1-bit LLM) کے لیے دنیا کا پہلا کراس پلیٹ فارم LoRA فائن ٹیوننگ فریم ورک متعارف کرایا ہے، جس سے ارب پیرامیٹر والے زبانی ماڈلز عام ہارڈ ویئر، جیسے لیپ ٹاپ، صارفین کے GPU اور اسمارٹ فونز پر تربیت اور استنتاج کر سکتے ہیں۔


افسران کا کہنا ہے کہ یہ فریم ورک AI ماڈل تربیت کے لیے درکار ویڈیو میموری اور کمپوٹیشنل طاقت کی حد کو نمایاں طور پر کم کرتا ہے، جس میں Intel، AMD، Apple Silicon اور متعدد موبائل GPU (جیسے Adreno، Mali، Apple Bionic) شامل ہیں۔


ٹیسٹ کے دوران، تقریباً 1.25 ارب پیرامیٹرز والے BitNet ماڈل کو Samsung S25 پر تقریباً 10 منٹ میں فائن ٹیون کیا جا سکا؛ 10 ارب پیرامیٹرز والے ماڈل کو Samsung S25 پر تقریباً 1 گھنٹہ 18 منٹ اور iPhone 16 پر تقریباً 1 گھنٹہ 45 منٹ میں فائن ٹیون کیا گیا، اور ٹیم نے iPhone 16 پر 130 ارب پیرامیٹرز والے ماڈل کو فائن ٹیون کرنے میں کامیابی حاصل کی۔


پرفارمنس کے لحاظ سے، BitNet ماڈلز موبائل GPU پر CPU کے مقابلے میں 2 سے 11 گنا تیز نتائج دیتے ہیں۔ اس کے علاوہ، ٹیسٹنگ سے پتہ چلتا ہے کہ BitNet-1B کا انفرینس اور فائن ٹیوننگ کے کاموں میں 16-بٹ ماڈلز کے مقابلے میں ویڈیو میموری کا استعمال ایک زیادہ سے زیادہ 77.8% تک کم ہو جاتا ہے۔


پاولو ارڈونو نے کہا کہ یہ ٹیکنالوجی بڑے کلاؤڈ کمپوٹنگ اور مخصوص AI ہارڈویئر کی ضرورت کو کم کرنے کے لیے ڈیزائن کی گئی ہے، جس سے AI ماڈلز کی تربیت مقامی ڈیوائسز پر مکمل ہو سکے اور ڈیسینٹرلائزڈ AI اور فیڈریٹڈ لرننگ جیسے نئے ماڈلز کے لیے بنیاد فراہم ہو۔

اعلان دستبرداری: اس صفحہ پر معلومات تیسرے فریق سے حاصل کی گئی ہوں گی اور یہ ضروری نہیں کہ KuCoin کے خیالات یا خیالات کی عکاسی کرے۔ یہ مواد کسی بھی قسم کی نمائندگی یا وارنٹی کے بغیر صرف عام معلوماتی مقاصد کے لیے فراہم کیا گیا ہے، اور نہ ہی اسے مالی یا سرمایہ کاری کے مشورے کے طور پر سمجھا جائے گا۔ KuCoin کسی غلطی یا کوتاہی کے لیے، یا اس معلومات کے استعمال کے نتیجے میں کسی بھی نتائج کے لیے ذمہ دار نہیں ہوگا۔ ڈیجیٹل اثاثوں میں سرمایہ کاری خطرناک ہو سکتی ہے۔ براہ کرم اپنے مالی حالات کی بنیاد پر کسی پروڈکٹ کے خطرات اور اپنے خطرے کی برداشت کا بغور جائزہ لیں۔ مزید معلومات کے لیے، براہ کرم ہماری استعمال کی شرائط اور خطرے کا انکشاف دیکھیں۔