Odaily Planet Daily melaporkan, menurut pengumuman resmi, Tether mengumumkan peluncuran kerangka kerja fine-tuning BitNet LoRA di QVAC Fabric, yang mengoptimalkan pelatihan dan inferensi untuk Microsoft BitNet (1-bit LLM). Kerangka kerja ini secara signifikan mengurangi kebutuhan daya komputasi dan memori, memungkinkan model dengan parameter miliaran untuk dilatih dan disesuaikan di laptop, GPU konsumen, dan smartphone.
Solusi ini pertama kali memungkinkan fine-tuning model BitNet pada GPU seluler (termasuk Adreno, Mali, dan Apple Bionic). Pengujian menunjukkan bahwa model dengan 125M parameter dapat selesai fine-tuning dalam sekitar 10 menit, model 1B dalam sekitar 1 jam, dan bahkan dapat diskalakan hingga model 13B parameter di perangkat seluler.
Selain itu, kerangka ini mendukung perangkat keras heterogen seperti Intel, AMD, dan Apple Silicon, serta pertama kalinya mewujudkan fine-tuning LoRA 1-bit pada perangkat non-NVIDIA. Dari segi kinerja, model BitNet meningkatkan kecepatan inferensi hingga 2 hingga 11 kali lipat pada GPU seluler dibandingkan CPU, sekaligus mengurangi penggunaan memori GPU hingga 77,8% dibandingkan model 16-bit tradisional.
Tether menyatakan bahwa teknologi ini berpotensi mengurangi ketergantungan pada kekuatan komputasi tinggi dan infrastruktur cloud, mendorong pelatihan AI menuju desentralisasi dan lokalization, serta menyediakan dasar untuk aplikasi baru seperti federated learning.
