Tether ay Naglunsad ng AI Framework para sa Pagsasanay ng Mga Model na may Bilyong Parameter sa Mga Mobile Device

iconChainthink
I-share
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconSummary

expand icon
Inanunsyo ng Tether noong Marso 17, 2026, ang paglabas ng cross-platform LoRA fine-tuning framework para sa Microsoft BitNet (1-bit LLM) sa QVAC Fabric AI platform nito, bilang mahalagang update sa on-chain news. Sinusuportahan ng framework ang pagte-train ng billion-parameter models gamit ang consumer hardware tulad ng laptops, smartphones, at GPUs. Gumagana ito sa Intel, AMD, Apple Silicon, Adreno, Mali, at Bionic chips. Isang 125 million parameter model ang na-train sa loob ng 10 minuto gamit ang Samsung S25, habang ang 10 billion model ay natapos sa loob ng 1 oras at 18 minuto. Ang BitNet ay tumatakbo nang 2 hanggang 11 beses na mas mabilis sa mobile GPUs kaysa sa CPUs at gumagamit ng 77.8% na mas kaunting memory kumpara sa 16-bit models. Ang balitang ito sa AI + crypto ay nagbibigay-diin sa lokal na pagte-train at decentralized AI goals.

Ang ChainThink ay nagpapahayag na noong Marso 17, ang tagapaglabas ng stablecoin na Tether ay inihayag ang paglunsad ng QVAC Fabric, ang kanilang AI platform, na nagtatampok ng unang global cross-platform LoRA fine-tuning framework para sa Microsoft BitNet (1-bit LLM), na nagpapahintulot sa mga language model na may bilyong parameter na matutong at mag-isip sa karaniwang hardware, kabilang ang mga laptop, consumer-grade GPU, at mga smartphone.


Sinabi ng opisyal na ang framework ay nagbaba nang malaki sa mga kinakailangang memorya ng GPU at computing power para sa pag-train ng AI models, at sumusuporta sa Intel, AMD, Apple Silicon, at iba't ibang mobile GPU (tulad ng Adreno, Mali, Apple Bionic).


Sa pagsubok, ang BitNet model na may halos 125 milyong parameter ay nakakumpleto ng fine-tuning sa Samsung S25 sa loob ng halos 10 minuto; ang model na may 1 bilyong parameter ay nakakumpleto ng fine-tuning sa Samsung S25 sa loob ng halos 1 oras at 18 minuto, at sa iPhone 16 sa loob ng halos 1 oras at 45 minuto, at kahit na nagtagumpay ang team sa pagfine-tune ng model na may 13 bilyong parameter sa iPhone 16.


Sa aspeto ng performance, ang pag-iisip ng BitNet model sa mobile GPU ay maaaring maging 2 hanggang 11 beses na mas mabilis kaysa sa CPU. Samantala, ang pagsubok ay nagpakita na ang BitNet-1B ay maaaring magbawas ng hanggang 77.8% sa paggamit ng VRAM kumpara sa 16-bit na mga modelo sa mga gawain ng pag-iisip at fine-tuning.


Sinabi ni Paolo Ardoino na ang teknolohiyang ito ay naglalayong bawasan ang pagkakasalalay sa malalaking cloud computing at espesyalisadong AI hardware, upang maaaring maisagawa ang pagtatrabaho ng AI models sa lokal na mga device at magbigay ng pundasyon para sa mga bagong modelo tulad ng decentralized AI at federated learning.

Disclaimer: Ang information sa page na ito ay maaaring nakuha mula sa mga third party at hindi necessary na nagre-reflect sa mga pananaw o opinyon ng KuCoin. Ibinigay ang content na ito para sa mga pangkalahatang informational purpose lang, nang walang anumang representation o warranty ng anumang uri, at hindi rin ito dapat ipakahulugan bilang financial o investment advice. Hindi mananagot ang KuCoin para sa anumang error o omission, o para sa anumang outcome na magreresulta mula sa paggamit ng information na ito. Maaaring maging risky ang mga investment sa mga digital asset. Pakisuri nang maigi ang mga risk ng isang produkto at ang risk tolerance mo batay sa iyong sariling kalagayang pinansyal. Para sa higit pang information, mag-refer sa aming Terms ng Paggamit at Disclosure ng Risk.