Tether ay Naglunsad ng Cross-Platform BitNet LoRA Framework para sa Pag-train ng Billion-Parameter AI Models sa mga Consumer Device

iconKuCoinFlash
I-share
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconSummary

expand icon
Ipinahayag ng Tether ang isang cross-platform na BitNet LoRA framework para sa on-chain at AI + crypto news, na nagpapahintulot sa mga AI model na may bilyon-parameter na mag-train sa mga consumer device. Ang framework, bahagi ng QVAC Fabric, ay nag-o-optimize sa Microsoft’s BitNet para sa mababang computational at memory use. Suportahan nito ang Adreno, Mali, Apple Bionic, at iba pa, kasama ang fine-tuning ng 1B models sa loob ng halos isang oras. Ang non-NVIDIA hardware ay ngayon ay sumusuporta sa 1-bit LLM training. Ang BitNet models ay tumatakbo 2–11x mas mabilis sa mobile GPUs kaysa sa CPUs, gamit ang 77.8% mas kaunting VRAM kaysa sa 16-bit models. Sabi ng Tether, ang teknolohiyang ito ay nagbabawas sa pagkakadepende sa cloud at sumusuporta sa decentralized AI training.

Odaily Planet Daily News: Ayon sa opisyal na pahayag, inihayag ng Tether ang paglunsad ng cross-platform BitNet LoRA fine-tuning framework sa QVAC Fabric, na nagpapabuti sa pagtratap at pag-iisip ng Microsoft BitNet (1-bit LLM). Ang framework na ito ay nagsasabwag ng malaking pagbawas sa pangangailangan sa computing power at memory, na nagpapahintulot sa mga modelong may bilyong parameter na matuturuan at mai-fine-tune sa mga laptop, consumer-grade GPU, at smartphone.

Ang programa ay unang nagpapahintulot sa pag-mikro-paghawak ng BitNet model sa mobile GPU (kabilang ang Adreno, Mali, at Apple Bionic), at ang mga pagsubok ay nagpapakita na ang model na may 125M na parameter ay maaaring makumpleto ang pag-mikro-paghawak sa loob ng halos 10 minuto, habang ang 1B model ay maaaring makumpleto sa halos 1 oras, at maaari pa ring i-extend sa mobile hanggang sa 13B na parameter model.

Dagdag pa, ang framework na ito ay sumusuporta sa heterogenous hardware tulad ng Intel, AMD, at Apple Silicon, at unang nagpapakita ng 1-bit LLM LoRA fine-tuning sa mga device na hindi NVIDIA. Sa aspeto ng performance, ang pag-iisip ng BitNet models sa mobile GPU ay nagsisikat ng 2 hanggang 11 beses kumpara sa CPU, habang nababawasan ang paggamit ng VRAM nang hanggang 77.8% kumpara sa tradisyonal na 16-bit models.

Ang Tether ay nagpapahayag na ang teknolohiyang ito ay inaasahang magpapalaya sa pagkakadepende sa mataas na computing power at cloud infrastructure, at magpapalaganap ng AI training patungo sa decentralization at localization, habang nagbibigay ng pundasyon para sa mga bagong aplikasyon tulad ng federated learning.

Disclaimer: Ang information sa page na ito ay maaaring nakuha mula sa mga third party at hindi necessary na nagre-reflect sa mga pananaw o opinyon ng KuCoin. Ibinigay ang content na ito para sa mga pangkalahatang informational purpose lang, nang walang anumang representation o warranty ng anumang uri, at hindi rin ito dapat ipakahulugan bilang financial o investment advice. Hindi mananagot ang KuCoin para sa anumang error o omission, o para sa anumang outcome na magreresulta mula sa paggamit ng information na ito. Maaaring maging risky ang mga investment sa mga digital asset. Pakisuri nang maigi ang mga risk ng isang produkto at ang risk tolerance mo batay sa iyong sariling kalagayang pinansyal. Para sa higit pang information, mag-refer sa aming Terms ng Paggamit at Disclosure ng Risk.