تيرتر تطلق إطار عمل BitNet LoRA متعدد المنصات لتدريب الذكاء الاصطناعي على الأجهزة الاستهلاكية

iconCryptofrontnews
مشاركة
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconملخص

expand icon
أعلنت تيثر عن خبر على السلسلة مع إطلاق إطار عمل BitNet LoRA متعدد المنصات عبر منصة QVAC Fabric، مما يسمح بتدريب الذكاء الاصطناعي والاستنتاج على وحدات معالجة الرسومات الاستهلاكية والهواتف الذكية. يدعم الإطار أجهزة AMD وIntel وApple، ويقلل من متطلبات ذاكرة VRAM بنسبة تصل إلى 77.8%. وتشير أخبار الذكاء الاصطناعي والعملات المشفرة إلى أن المستخدمين يمكنهم الآن ضبط النماذج ذات ما يصل إلى 13 مليار معلمة على أجهزة محمولة مثل iPhone 16.
  • إطار عمل BitNet LoRA الخاص بـ Tether يمكّن تدريب نماذج الذكاء الاصطناعي عبر الهواتف الذكية ووحدات معالجة الرسومات والأجهزة الاستهلاكية.
  • يقلل النظام من استخدام الذاكرة ويعزز الأداء، مع انخفاض متطلبات VRAM بنسبة تصل إلى 77.8%.
  • يمكن للمستخدمين ضبط النماذج حتى 13B معلمة على الأجهزة المحمولة، مما يوسع قدرات الذكاء الاصطناعي على الحافة.

تيرتر أعلنت عن إطار عمل ذكاء اصطناعي جديد من خلال منصة QVAC Fabric، مما يمكّن تدريب BitNet LoRA عبر المنصات على الأجهزة الاستهلاكية. يسمح هذا التحديث بتشغيل نماذج بمليارات المعلمات على الهواتف الذكية ووحدات معالجة الرسومات. وشارك الرئيس التنفيذي باولو أردوينو التحديث، مع التأكيد على تقليل التكاليف وتوسيع الوصول إلى أدوات الذكاء الاصطناعي.

توسيع الوصول من خلال تدريب الذكاء الاصطناعي عبر المنصات

يُقدّم تحديث QVAC Fabric دعماً متعدد المنصات لضبط BitNet LoRA. هذا يسمح لنموذج الذكاء الاصطناعي بالعمل عبر أجهزة وأنظمة تشغيل مختلفة.

تجدر الإشارة إلى أن الإطار يدعم وحدات معالجة الرسومات من AMD وIntel وApple، بما في ذلك شرائح الهاتف المحمول. كما يستخدم خلفيات Vulkan وMetal للتوافق.

وفقًا لـ Tether، هذه هي المرة الأولى التي يعمل فيها BitNet LoRA عبر مجموعة واسعة من الأجهزة. نتيجةً لذلك، يمكن للمستخدمين تدريب النماذج على الأجهزة اليومية.

مكاسب الأداء على الأجهزة الاستهلاكية

يقلل النظام من متطلبات الذاكرة والحساب من خلال دمج تقنيات BitNet وLoRA. تقوم BitNet بضغط أوزان النموذج إلى قيم مبسطة، بينما تحد LoRA من المعلمات القابلة للتدريب.

معًا، تُقلل هذه الطرق بشكل كبير من متطلبات العتاد. على سبيل المثال، يعمل استنتاج GPU أسرع بمرتين إلى أحد عشر مرة من CPU على الأجهزة المحمولة.

بالإضافة إلى ذلك، ينخفض استخدام الذاكرة بشكل حاد مقارنةً بالنماذج ذات الدقة الكاملة. تُظهر المعايير انخفاضًا يصل إلى 77.8% في استخدام VRAM مقارنةً بالأنظمة المماثلة.

أظهرت تيثر أيضًا الضبط الدقيق على الهواتف الذكية. أظهرت الاختبارات نماذج بـ 125 مليون معلمة تم تدريبها في دقائق على أجهزة مثل سامسونج S25.

تتعامل الأجهزة المحمولة وحواف الشبكة مع نماذج أكبر

يُمكّن الإطار النماذج الأكبر من التشغيل على أجهزة الحافة. أبلغت تيثر عن ضبط دقيق ناجح للنماذج حتى 13 مليار معلمة على iPhone 16.

علاوة على ذلك، يدعم النظام وحدات معالجة الرسومات المحمولة مثل Adreno وMali وApple Bionic. وهذا يوسع تطوير الذكاء الاصطناعي خارج الأجهزة المتخصصة.

وفقًا لPaolo Ardoino، غالبًا ما يعتمد تطوير الذكاء الاصطناعي على بنية تحتية مكلفة. وقال إن هذا الإطار يحول القدرات نحو الأجهزة المحلية.

أضافت تيثر أن النظام يقلل الاعتماد على المنصات المركزية. كما يسمح للمستخدمين بتدريب ومعالجة البيانات مباشرة على أجهزتهم.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة قد حصلت عليها من أطراف ثالثة ولا تعكس بالضرورة وجهات نظر أو آراء KuCoin. يُقدّم هذا المحتوى لأغراض إعلامية عامة فقط ، دون أي تمثيل أو ضمان من أي نوع ، ولا يجوز تفسيره على أنه مشورة مالية أو استثمارية. لن تكون KuCoin مسؤولة عن أي أخطاء أو سهو ، أو عن أي نتائج ناتجة عن استخدام هذه المعلومات. يمكن أن تكون الاستثمارات في الأصول الرقمية محفوفة بالمخاطر. يرجى تقييم مخاطر المنتج بعناية وتحملك للمخاطر بناء على ظروفك المالية الخاصة. لمزيد من المعلومات، يرجى الرجوع إلى شروط الاستخدام واخلاء المسؤولية.