رسالة من ChainThink، في 1 أبريل 2026، وفقًا لمراقبة 1M AI News، انتهت مختبر الذكاء الاصطناعي PrismML، الذي أسسه معًا عالم الرياضيات من معهد كاليفورنيا للتقنية Babak Hassibi، مرحلة التخفي، وأصدر مجموعات نماذج اللغة الكبيرة Bonsai بـ 1 بت. يحتوي النموذج الرئيسي 1-bit Bonsai 8B على 8.2 مليار معلمة، ويشغل ذاكرة فقط بحجم 1.15 جيجابايت، وهو ما يقلص الحجم حوالي 14 مرة مقارنة بنماذج 16 بت من نفس الفئة، مع إصدار نموذجين أصغر: 4B (0.5 جيجابايت) و1.7B (0.24 جيجابايت).
Bonsai 8B هو نموذج حقيقي بـ 1 بت من طرف إلى طرف، حيث يتم تمثيل جميع الطبقات—طبقة التضمين، طبقة الانتباه، طبقة MLP، ورأس الإخراج—باستخدام +1 أو -1 فقط، دون أي تصحيحات عالية الدقة. تدّعي PrismML أن قدراته في الاستنتاج وفهم اللغة على المعايير القياسية تكافئ نماذج الدقة الكاملة بـ 16 بت، حيث تم تطوير الرياضيات الأساسية للضغط على مدى سنوات عديدة من قبل الفريق في معهد كاليفورنيا للتقنية، وتمتلك معهد كاليفورنيا للتقنية حقوق الملكية الفكرية، وتُعد PrismML الجهة الوحيدة المرخصة حصريًا، وقد تم تدريب النموذج باستخدام TPU v4 من جوجل.
من حيث السرعة الفعلية، بلغت 136 tok/s على M4 Pro Mac، و440 tok/s على RTX 4090، وحوالي 44 tok/s على iPhone 17 Pro Max. لا يمكن تحميل نموذج قياسي بـ 16-bit و8B على أي iPhone، مع تقليل استهلاك الطاقة بنسبة 4-5 مرات مقارنة بنماذج 16-bit. أشار PrismML إلى أن الأجهزة الحالية ليست مصممة للاستدلال بـ 1-bit، وأن المزايا في السرعة والاستهلاك الطاقي تأتي أساسًا من تقليل استخدام الذاكرة. إذا ظهرت في المستقبل أجهزة مصممة خصيصًا للاستدلال بـ 1-bit، فسيمكن تحقيق تحسن إضافي بمقدار درجة واحدة من الحجم.
أكمل PrismML جولة تمويل SAFE بقيمة 16.25 مليون دولار بالإضافة إلى جولة التمويل الأولي، بمشاركة Khosla Ventures وCerberus Capital ومعهد كاليفورنيا للتقنية. ووصف فينود خوسلا، مؤسس Khosla Ventures، هذه النتيجة بأنها "ليست تحسينًا صغيرًا، بل قفزة تقنية كبيرة، وانفراجة رياضية، وليست مجرد نموذج صغير آخر".
