PANews, 21 Mar — Ayon sa opisyal na pahayag, inihayag ng Tether ang paglunsad ng cross-platform BitNet LoRA fine-tuning framework sa loob ng QVAC Fabric, na nagpapabuti sa pag-train at inference ng Microsoft BitNet (1-bit LLM). Ang framework na ito ay nagsasabog ng malaking pagbawas sa pangangailangan sa computing power at memory, na nagpapahintulot sa mga modelong may bilyong parameter na matuturuan at mafine-tune sa laptop, consumer-grade GPU, at smartphone. Ito ang unang solusyon na nagpapahintulot sa fine-tuning ng BitNet models sa mobile GPU (kabilang ang Adreno, Mali, at Apple Bionic). Ayon sa mga pagsubok, ang 125M parameter model ay maaaring mafine-tune sa loob ng halos 10 minuto, habang ang 1B model ay nai-complete sa halos 1 oras, at maaari pang i-extend sa mobile hanggang sa 13B parameter model. Dagdag pa rito, suportado ng framework ang heterogenous hardware tulad ng Intel, AMD, at Apple Silicon, at ito ang unang pagkakataon na nagawa ang 1-bit LLM LoRA fine-tuning sa mga device na hindi NVIDIA. Sa aspeto ng performance, ang inference speed ng BitNet models sa mobile GPU ay 2 hanggang 11 beses na mas mabilis kaysa sa CPU, samantalang ang memory usage ay bumaba ng hanggang 77.8% kumpara sa tradisyonal na 16-bit models. Sinabi ng Tether na ang teknolohiyang ito ay may potensyal na sirain ang pagkakadepende sa mataas na computing power at cloud infrastructure, at magpapalaganap ng AI training patungo sa decentralization at localization, habang binibigyan ng pundasyon ang mga bagong aplikasyon tulad ng federated learning.
Tether ay Naglunsad ng Cross-Platform BitNet LoRA Framework para sa Pag-train ng Billion-Parameter Model sa mga Consumer Device
PANewsI-share






Ipinakilala ng Tether ang isang cross-platform na BitNet LoRA framework para sa on-chain at crypto news, na nagpapahintulot sa pag-train ng mga 1-bit BitNet model ni Microsoft sa consumer hardware. Ang kasangkapan ay nagpapahintulot sa mga model na may bilyong parameter na mag-run sa mga laptop, smartphone, at mga GPU tulad ng Adreno, Mali, at Apple Bionic. Ang isang 1B parameter model ay kumukuha ng halos isang oras para ma-fine-tune. Ang sistema ay sumusuporta sa Intel, AMD, at Apple Silicon, na nagdadala ng 1-bit LLM LoRA tuning sa mga non-NVIDIA device para sa unang pagkakataon. Ang mga BitNet model ay nagpapatakbo ng 2–11x mas mabilis sa mga mobile GPU kaysa sa CPU, gamit ang 77.8% mas kaunting memorya kaysa sa 16-bit na bersyon. Ayon sa Tether, ang teknolohiyang ito ay maaaring bawasan ang pagkakadepende sa cloud, na nagpapahintulot sa decentralized AI training.
Source:Ipakita ang original
Disclaimer: Ang information sa page na ito ay maaaring nakuha mula sa mga third party at hindi necessary na nagre-reflect sa mga pananaw o opinyon ng KuCoin. Ibinigay ang content na ito para sa mga pangkalahatang informational purpose lang, nang walang anumang representation o warranty ng anumang uri, at hindi rin ito dapat ipakahulugan bilang financial o investment advice. Hindi mananagot ang KuCoin para sa anumang error o omission, o para sa anumang outcome na magreresulta mula sa paggamit ng information na ito.
Maaaring maging risky ang mga investment sa mga digital asset. Pakisuri nang maigi ang mga risk ng isang produkto at ang risk tolerance mo batay sa iyong sariling kalagayang pinansyal. Para sa higit pang information, mag-refer sa aming Terms ng Paggamit at Disclosure ng Risk.