Pesan ChainThink, 17 Maret, penerbit stablecoin Tether mengumumkan bahwa platform AI mereka, QVAC Fabric, meluncurkan kerangka kerja LoRA lintas platform pertama di dunia untuk Microsoft BitNet (1-bit LLM), memungkinkan model bahasa berparameter miliaran untuk dilatih dan dijalankan pada perangkat biasa, termasuk laptop, GPU konsumen, dan smartphone.
Pihak resmi menyatakan bahwa kerangka ini secara signifikan menurunkan ambang kebutuhan memori GPU dan daya komputasi untuk pelatihan model AI, mendukung Intel, AMD, Apple Silicon, serta berbagai GPU seluler (seperti Adreno, Mali, Apple Bionic).
Dalam pengujian, model BitNet dengan sekitar 125 juta parameter dapat disesuaikan dalam sekitar 10 menit di Samsung S25; model dengan 1 miliar parameter membutuhkan sekitar 1 jam 18 menit di Samsung S25 dan sekitar 1 jam 45 menit di iPhone 16, bahkan tim berhasil menyesuaikan model dengan 13 miliar parameter di iPhone 16.
Dari segi kinerja, kecepatan inferensi model BitNet pada GPU seluler dapat meningkat 2 hingga 11 kali dibandingkan CPU. Sementara itu, pengujian menunjukkan bahwa BitNet-1B dapat mengurangi penggunaan memori GPU hingga 77,8% dibandingkan model 16-bit pada tugas inferensi dan fine-tuning.
Paolo Ardoino menyatakan bahwa teknologi ini bertujuan untuk mengurangi ketergantungan pada komputasi awan skala besar dan perangkat keras AI khusus, memungkinkan pelatihan model AI dilakukan di perangkat lokal, serta menyediakan dasar untuk model-model baru seperti AI terdesentralisasi dan federated learning.
