أوديليي: وفقًا للإعلان الرسمي، أعلنت تيتر عن إطلاق إطار عمل QVAC Fabric لضبط LoRA عبر المنصات، بهدف تحسين تدريب واستنتاج Microsoft BitNet (LLM بـ 1 بت). يقلل هذا الإطار بشكل ملحوظ من متطلبات الحوسبة والذاكرة، مما يسمح بتدريب وضبط النماذج بحجم مليار معلمة على أجهزة المحمول، ووحدات معالجة الرسومات الاستهلاكية، والهواتف الذكية.
يُعد هذا الحل أول مرة يتم فيها تهيئة نماذج BitNet على وحدات معالجة الرسومات المحمولة (بما في ذلك Adreno وMali وApple Bionic)، حيث أظهرت الاختبارات أن نموذجًا بـ 125 مليون معلمة يمكن تهيئة خلال حوالي 10 دقائق، ونموذج بـ 1 مليار معلمة خلال حوالي ساعة، بل ويمكن توسيعه حتى نماذج بـ 13 مليار معلمة على الهاتف المحمول.
بالإضافة إلى ذلك، يدعم الإطار الأجهزة المتنوعة مثل Intel وAMD وApple Silicon، ويوفر لأول مرة تهيئة LoRA لـ 1-bit LLM على أجهزة غير NVIDIA. من حيث الأداء، يزيد تسرع استنتاج نماذج BitNet على وحدات معالجة الرسومات المحمولة بنسبة 2 إلى 11 مرة مقارنة بالمعالجات المركزية، مع تقليل استهلاك ذاكرة العرض بنسبة تصل إلى 77.8% مقارنة بالنماذج التقليدية ذات الدقة 16-bit.
تقول تيثر إن هذه التقنية واعدة في كسر الاعتماد على قوة الحوسبة عالية الأداء والبنية التحتية السحابية، ودفع تدريب الذكاء الاصطناعي نحو اللامركزية والمحليّة، وتقديم أساس لتطبيقات جديدة مثل التعلم الاتحادي.
