Ang ChainThink ay nagpapahayag na noong Marso 17, ang tagapaglabas ng stablecoin na Tether ay inihayag ang paglunsad ng QVAC Fabric, ang kanilang AI platform, na nagtatampok ng unang global cross-platform LoRA fine-tuning framework para sa Microsoft BitNet (1-bit LLM), na nagpapahintulot sa mga language model na may bilyong parameter na matutong at mag-isip sa karaniwang hardware, kabilang ang mga laptop, consumer-grade GPU, at mga smartphone.
Sinabi ng opisyal na ang framework ay nagbaba nang malaki sa mga kinakailangang memorya ng GPU at computing power para sa pag-train ng AI models, at sumusuporta sa Intel, AMD, Apple Silicon, at iba't ibang mobile GPU (tulad ng Adreno, Mali, Apple Bionic).
Sa pagsubok, ang BitNet model na may halos 125 milyong parameter ay nakakumpleto ng fine-tuning sa Samsung S25 sa loob ng halos 10 minuto; ang model na may 1 bilyong parameter ay nakakumpleto ng fine-tuning sa Samsung S25 sa loob ng halos 1 oras at 18 minuto, at sa iPhone 16 sa loob ng halos 1 oras at 45 minuto, at kahit na nagtagumpay ang team sa pagfine-tune ng model na may 13 bilyong parameter sa iPhone 16.
Sa aspeto ng performance, ang pag-iisip ng BitNet model sa mobile GPU ay maaaring maging 2 hanggang 11 beses na mas mabilis kaysa sa CPU. Samantala, ang pagsubok ay nagpakita na ang BitNet-1B ay maaaring magbawas ng hanggang 77.8% sa paggamit ng VRAM kumpara sa 16-bit na mga modelo sa mga gawain ng pag-iisip at fine-tuning.
Sinabi ni Paolo Ardoino na ang teknolohiyang ito ay naglalayong bawasan ang pagkakasalalay sa malalaking cloud computing at espesyalisadong AI hardware, upang maaaring maisagawa ang pagtatrabaho ng AI models sa lokal na mga device at magbigay ng pundasyon para sa mga bagong modelo tulad ng decentralized AI at federated learning.
