Tether Meluncurkan Kerangka Kerja AI untuk Melatih Model Berparameter Miliaran di Perangkat Seluler

iconChainthink
Bagikan
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRingkasan

expand icon
Tether mengumumkan pada 17 Maret 2026 peluncuran kerangka kerja LoRA fine-tuning lintas platform untuk Microsoft BitNet (1-bit LLM) di platform AI QVAC Fabric-nya, menandai pembaruan penting dalam berita on-chain. Kerangka kerja ini mendukung pelatihan model berparameter miliaran pada perangkat konsumen seperti laptop, smartphone, dan GPU. Kerangka kerja ini berfungsi pada chip Intel, AMD, Apple Silicon, Adreno, Mali, dan Bionic. Model dengan 125 juta parameter dilatih dalam 10 menit di Samsung S25, sementara model 10 miliar parameter membutuhkan waktu 1 jam 18 menit. BitNet berjalan 2 hingga 11 kali lebih cepat pada GPU seluler dibandingkan CPU dan menggunakan 77,8% lebih sedikit memori daripada model 16-bit. Berita AI + kripto ini menonjolkan tujuan pelatihan lokal dan AI terdesentralisasi.

Pesan ChainThink, 17 Maret, penerbit stablecoin Tether mengumumkan bahwa platform AI mereka, QVAC Fabric, meluncurkan kerangka kerja LoRA lintas platform pertama di dunia untuk Microsoft BitNet (1-bit LLM), memungkinkan model bahasa berparameter miliaran untuk dilatih dan dijalankan pada perangkat biasa, termasuk laptop, GPU konsumen, dan smartphone.


Pihak resmi menyatakan bahwa kerangka ini secara signifikan menurunkan ambang kebutuhan memori GPU dan daya komputasi untuk pelatihan model AI, mendukung Intel, AMD, Apple Silicon, serta berbagai GPU seluler (seperti Adreno, Mali, Apple Bionic).


Dalam pengujian, model BitNet dengan sekitar 125 juta parameter dapat disesuaikan dalam sekitar 10 menit di Samsung S25; model dengan 1 miliar parameter membutuhkan sekitar 1 jam 18 menit di Samsung S25 dan sekitar 1 jam 45 menit di iPhone 16, bahkan tim berhasil menyesuaikan model dengan 13 miliar parameter di iPhone 16.


Dari segi kinerja, kecepatan inferensi model BitNet pada GPU seluler dapat meningkat 2 hingga 11 kali dibandingkan CPU. Sementara itu, pengujian menunjukkan bahwa BitNet-1B dapat mengurangi penggunaan memori GPU hingga 77,8% dibandingkan model 16-bit pada tugas inferensi dan fine-tuning.


Paolo Ardoino menyatakan bahwa teknologi ini bertujuan untuk mengurangi ketergantungan pada komputasi awan skala besar dan perangkat keras AI khusus, memungkinkan pelatihan model AI dilakukan di perangkat lokal, serta menyediakan dasar untuk model-model baru seperti AI terdesentralisasi dan federated learning.

Penafian: Informasi pada halaman ini mungkin telah diperoleh dari pihak ketiga dan tidak mencerminkan pandangan atau opini KuCoin. Konten ini disediakan hanya untuk tujuan informasi umum, tanpa representasi atau jaminan apa pun, dan tidak dapat ditafsirkan sebagai saran keuangan atau investasi. KuCoin tidak bertanggung jawab terhadap segala kesalahan atau kelalaian, atau hasil apa pun yang keluar dari penggunaan informasi ini. Berinvestasi di aset digital dapat berisiko. Harap mengevaluasi risiko produk dan toleransi risiko Anda secara cermat berdasarkan situasi keuangan Anda sendiri. Untuk informasi lebih lanjut, silakan lihat Ketentuan Penggunaan dan Pengungkapan Risiko.