Tether Melancarkan Kerangka AI untuk Melatih Model Berparameter Bilion di Peranti Mudah Alih

iconChainthink
Kongsi
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRingkasan

expand icon
Tether mengumumkan pada 17 Mac 2026 pelancaran kerangka kerja LoRA penyesuaian lintas platform untuk Microsoft BitNet (1-bit LLM) di platform AI QVAC Fabricnya, menandakan pembaruan utama dalam berita rantai. Kerangka kerja ini menyokong latihan model berparameter bilion pada peranti pengguna seperti laptop, telefon pintar, dan GPU. Ia berfungsi pada cip Intel, AMD, Apple Silicon, Adreno, Mali, dan Bionic. Model 125 juta parameter dilatih dalam 10 minit pada Samsung S25, manakala model 10 bilion mengambil masa 1 jam 18 minit. BitNet berjalan 2 hingga 11 kali lebih pantas pada GPU mudah alih berbanding CPU dan menggunakan 77.8% kurang memori berbanding model 16-bit. Berita AI + kripto ini menonjolkan matlamat latihan tempatan dan AI terdesentralisasi.

ChainThink melaporkan, pada 17 Mac, penerbit stablecoin Tether mengumumkan pelancaran QVAC Fabric, platform AI pertama di dunia yang menyediakan kerangka kerja LoRA lintas platform untuk Microsoft BitNet (1-bit LLM), membolehkan model bahasa berskala miliaran parameter dilatih dan dijalankan pada peranti biasa, termasuk laptop, GPU peringkat pengguna, dan telefon pintar.


Pihak rasmi menyatakan bahawa rangka kerja ini secara signifikan mengurangkan sempadan memori grafik dan kuasa pengiraan yang diperlukan untuk melatih model AI, menyokong Intel, AMD, Apple Silicon, serta pelbagai GPU mudah alih (seperti Adreno, Mali, Apple Bionic).


Dalam ujian, model BitNet dengan sekitar 125 juta parameter dapat dituning dalam masa sekitar 10 minit di Samsung S25; model dengan 1 bilion parameter memerlukan sekitar 1 jam 18 minit di Samsung S25 dan sekitar 1 jam 45 minit di iPhone 16, dan pasukan berjaya menyesuaikan model dengan 13 bilion parameter di iPhone 16.


Dari segi prestasi, kelajuan inferens model BitNet pada GPU mudah alih boleh meningkat 2 hingga 11 kali ganda berbanding CPU. Sementara itu, ujian menunjukkan bahawa BitNet-1B boleh mengurangkan penggunaan memori VRAM sehingga 77.8% berbanding model 16-bit dalam tugas inferens dan penyesuaian halus.


Paolo Ardoino menyatakan bahawa teknologi ini bertujuan untuk mengurangkan ketergantungan kepada komputasi awan berskala besar dan peranti AI khas, membolehkan latihan model AI dilakukan di peranti tempatan serta menyediakan asas untuk model baharu seperti AI terdesentralisasi dan pembelajaran federated.

Penafian: Maklumat yang terdapat pada halaman ini mungkin telah diperoleh daripada pihak ketiga dan tidak semestinya menggambarkan pandangan atau pendapat KuCoin. Kandungan ini adalah disediakan bagi tujuan maklumat umum sahaja, tanpa sebarang perwakilan atau waranti dalam apa jua bentuk, dan juga tidak boleh ditafsirkan sebagai nasihat kewangan atau pelaburan. KuCoin tidak akan bertanggungjawab untuk sebarang kesilapan atau pengabaian, atau untuk sebarang akibat yang terhasil daripada penggunaan maklumat ini. Pelaburan dalam aset digital boleh membawa risiko. Sila menilai risiko produk dan toleransi risiko anda dengan teliti berdasarkan keadaan kewangan anda sendiri. Untuk maklumat lanjut, sila rujuk kepada Terma Penggunaan dan Pendedahan Risiko kami.