رسالة ChainThink، 17 مارس: أعلنت شركة Tether، مُصدر العملة المستقرة، عن إطلاق منصتها الذكية QVAC Fabric لأول إطار عمل عالمي للضبط الدقيق LoRA موجه لنموذج Microsoft BitNet (LLM بـ 1 بت)، مما يمكّن نماذج اللغة ذات مليارات المعلمات من إجراء التدريب والاستنتاج على الأجهزة العادية، بما في ذلك أجهزة الكمبيوتر المحمولة ووحدات معالجة الرسومات الاستهلاكية والهواتف الذكية.
أفادت الشركة أن الإطار يقلل بشكل كبير من متطلبات ذاكرة العرض والقدرة الحسابية اللازمة لتدريب نماذج الذكاء الاصطناعي، ويدعم Intel وAMD وApple Silicon وعدة وحدات معالجة رسومية متنقلة (مثل Adreno وMali وApple Bionic).
في الاختبارات، استغرق نموذج BitNet بحوالي 125 مليون معلمة حوالي 10 دقائق للضبط الدقيق على Samsung S25؛ واستغرق النموذج بـ 1 مليار معلمة حوالي ساعة و18 دقيقة على Samsung S25، وحوالي ساعة و45 دقيقة على iPhone 16، ونجحت الفريق حتى في ضبط النموذج بـ 13 مليار معلمة على iPhone 16.
من حيث الأداء، يمكن لنموذج BitNet تحقيق زيادة في سرعة الاستدلال على وحدات معالجة الرسومات المحمولة تتراوح بين 2 إلى 11 مرة مقارنةً بالمعالج المركزي. كما أظهرت الاختبارات أن استهلاك ذاكرة GPU لنموذج BitNet-1B في مهام الاستدلال والضبط الدقيق يمكن أن ينخفض بنسبة تصل إلى 77.8% مقارنةً بالنماذج ذات الدقة 16 بت.
أشار باولو أردونو إلى أن هذه التقنية تهدف إلى تقليل الاعتماد على الحوسبة السحابية الكبيرة وعتاد الذكاء الاصطناعي المتخصص، مما يسمح بتدريب نماذج الذكاء الاصطناعي على الأجهزة المحلية، ويوفر الأساس للنماذج الجديدة مثل الذكاء الاصطناعي اللامركزي والتعلم الاتحادي.
