Odaily Planet Daily melaporkan, menurut pengumuman rasmi, Tether mengumumkan pelancaran kerangka penyesuaian halus BitNet LoRA lintas platform dalam QVAC Fabric, untuk mengoptimumkan latihan dan inferens Microsoft BitNet (1-bit LLM). Kerangka ini secara ketara mengurangkan keperluan kuasa pengiraan dan memori, membolehkan model berparameter bilionan dilatih dan disesuaikan halus di atas laptop, GPU peringkat pengguna, dan telefon pintar.
Skema ini pertama kali membolehkan penyesuaian model BitNet pada GPU mudah alih (termasuk Adreno, Mali, dan Apple Bionic). Ujian menunjukkan bahawa model dengan 125M parameter boleh disesuaikan dalam tempoh kira-kira 10 minit, model 1B dalam tempoh sekitar 1 jam, dan bahkan boleh diperluaskan hingga model 13B parameter di peranti telefon.
Selain itu, kerangka ini menyokong peranti heterogen seperti Intel, AMD, dan Apple Silicon, serta pertama kali mencapai penyesuaian LoRA 1-bit LLM pada peranti bukan NVIDIA. Dari segi prestasi, model BitNet meningkatkan kelajuan inferens sebanyak 2 hingga 11 kali ganda pada GPU mudah alih berbanding CPU, sambil mengurangkan penggunaan memori video sehingga 77.8% berbanding model 16-bit tradisional.
Tether menyatakan bahawa teknologi ini berpotensi mengurangkan ketergantungan kepada kekuatan pengiraan tinggi dan infrastruktur awan, mendorong latihan AI ke arah desentralisasi dan lokalisasi, serta menyediakan asas untuk aplikasi baru seperti pembelajaran federasi.
