Odaily Planet Daily News: Ayon sa opisyal na pahayag, inihayag ng Tether ang paglunsad ng cross-platform BitNet LoRA fine-tuning framework sa QVAC Fabric, na nagpapabuti sa pagtratap at pag-iisip ng Microsoft BitNet (1-bit LLM). Ang framework na ito ay nagsasabwag ng malaking pagbawas sa pangangailangan sa computing power at memory, na nagpapahintulot sa mga modelong may bilyong parameter na matuturuan at mai-fine-tune sa mga laptop, consumer-grade GPU, at smartphone.
Ang programa ay unang nagpapahintulot sa pag-mikro-paghawak ng BitNet model sa mobile GPU (kabilang ang Adreno, Mali, at Apple Bionic), at ang mga pagsubok ay nagpapakita na ang model na may 125M na parameter ay maaaring makumpleto ang pag-mikro-paghawak sa loob ng halos 10 minuto, habang ang 1B model ay maaaring makumpleto sa halos 1 oras, at maaari pa ring i-extend sa mobile hanggang sa 13B na parameter model.
Dagdag pa, ang framework na ito ay sumusuporta sa heterogenous hardware tulad ng Intel, AMD, at Apple Silicon, at unang nagpapakita ng 1-bit LLM LoRA fine-tuning sa mga device na hindi NVIDIA. Sa aspeto ng performance, ang pag-iisip ng BitNet models sa mobile GPU ay nagsisikat ng 2 hanggang 11 beses kumpara sa CPU, habang nababawasan ang paggamit ng VRAM nang hanggang 77.8% kumpara sa tradisyonal na 16-bit models.
Ang Tether ay nagpapahayag na ang teknolohiyang ito ay inaasahang magpapalaya sa pagkakadepende sa mataas na computing power at cloud infrastructure, at magpapalaganap ng AI training patungo sa decentralization at localization, habang nagbibigay ng pundasyon para sa mga bagong aplikasyon tulad ng federated learning.
