تيرتر تطلق إطار عمل ذكاء اصطناعي لتدريب نماذج بمليارات المعلمات على الأجهزة المحمولة

iconChainthink
مشاركة
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconملخص

expand icon
أعلنت تيثر في 17 مارس 2026 عن إطلاق إطار عمل LoRA متعدد المنصات لضبط نماذج Microsoft BitNet (LLM بـ 1 بت) على منصتها QVAC Fabric AI، مما يمثل تحديثًا رئيسيًا في أخبار السلسلة. يدعم الإطار تدريب نماذج بمعلمات مليار على أجهزة المستهلك مثل أجهزة الكمبيوتر المحمولة والهواتف الذكية ووحدات معالجة الرسومات. يعمل على شرائح Intel وAMD وApple Silicon وAdreno وMali وBionic. تم تدريب نموذج بـ 125 مليون معلمة في 10 دقائق على هاتف Samsung S25، بينما استغرق النموذج بـ 10 مليارات معلمة ساعة و18 دقيقة. تعمل BitNet من 2 إلى 11 مرات أسرع على وحدات معالجة الرسومات المحمولة مقارنة بالمعالجات، وتستخدم 77.8% أقل من الذاكرة مقارنة بنماذج 16 بت. تبرز هذه الأخبار المتعلقة بالذكاء الاصطناعي والعملات المشفرة أهداف التدريب المحلي والذكاء الاصطناعي اللامركزي.

رسالة ChainThink، 17 مارس: أعلنت شركة Tether، مُصدر العملة المستقرة، عن إطلاق منصتها الذكية QVAC Fabric لأول إطار عمل عالمي للضبط الدقيق LoRA موجه لنموذج Microsoft BitNet (LLM بـ 1 بت)، مما يمكّن نماذج اللغة ذات مليارات المعلمات من إجراء التدريب والاستنتاج على الأجهزة العادية، بما في ذلك أجهزة الكمبيوتر المحمولة ووحدات معالجة الرسومات الاستهلاكية والهواتف الذكية.


أفادت الشركة أن الإطار يقلل بشكل كبير من متطلبات ذاكرة العرض والقدرة الحسابية اللازمة لتدريب نماذج الذكاء الاصطناعي، ويدعم Intel وAMD وApple Silicon وعدة وحدات معالجة رسومية متنقلة (مثل Adreno وMali وApple Bionic).


في الاختبارات، استغرق نموذج BitNet بحوالي 125 مليون معلمة حوالي 10 دقائق للضبط الدقيق على Samsung S25؛ واستغرق النموذج بـ 1 مليار معلمة حوالي ساعة و18 دقيقة على Samsung S25، وحوالي ساعة و45 دقيقة على iPhone 16، ونجحت الفريق حتى في ضبط النموذج بـ 13 مليار معلمة على iPhone 16.


من حيث الأداء، يمكن لنموذج BitNet تحقيق زيادة في سرعة الاستدلال على وحدات معالجة الرسومات المحمولة تتراوح بين 2 إلى 11 مرة مقارنةً بالمعالج المركزي. كما أظهرت الاختبارات أن استهلاك ذاكرة GPU لنموذج BitNet-1B في مهام الاستدلال والضبط الدقيق يمكن أن ينخفض بنسبة تصل إلى 77.8% مقارنةً بالنماذج ذات الدقة 16 بت.


أشار باولو أردونو إلى أن هذه التقنية تهدف إلى تقليل الاعتماد على الحوسبة السحابية الكبيرة وعتاد الذكاء الاصطناعي المتخصص، مما يسمح بتدريب نماذج الذكاء الاصطناعي على الأجهزة المحلية، ويوفر الأساس للنماذج الجديدة مثل الذكاء الاصطناعي اللامركزي والتعلم الاتحادي.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة قد حصلت عليها من أطراف ثالثة ولا تعكس بالضرورة وجهات نظر أو آراء KuCoin. يُقدّم هذا المحتوى لأغراض إعلامية عامة فقط ، دون أي تمثيل أو ضمان من أي نوع ، ولا يجوز تفسيره على أنه مشورة مالية أو استثمارية. لن تكون KuCoin مسؤولة عن أي أخطاء أو سهو ، أو عن أي نتائج ناتجة عن استخدام هذه المعلومات. يمكن أن تكون الاستثمارات في الأصول الرقمية محفوفة بالمخاطر. يرجى تقييم مخاطر المنتج بعناية وتحملك للمخاطر بناء على ظروفك المالية الخاصة. لمزيد من المعلومات، يرجى الرجوع إلى شروط الاستخدام واخلاء المسؤولية.