Tether 推出跨平台 BitNet LoRA 框架,可在消費級設備上訓練十億參數 AI 模型

iconKuCoinFlash
分享
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary icon精華摘要

expand icon
Tether 宣布推出跨平台 BitNet LoRA 框架,用於鏈上新聞與 AI + 加密貨幣新聞,使十億參數的 AI 模型可在消費級裝置上進行訓練。該框架作為 QVAC Fabric 的一部分,優化了 Microsoft 的 BitNet,以降低計算與記憶體使用量。它支援 Adreno、Mali、Apple Bionic 等多種硬體,1B 模型可在約一小時內完成微調。非 NVIDIA 硬體現已支援 1-bit LLM 訓練。BitNet 模型在行動 GPU 上的運行速度比 CPU 快 2–11 倍,並比 16-bit 模型節省 77.8% 的 VRAM。Tether 表示,此技術可減少對雲端的依賴,並支援去中心化的 AI 訓練。

Odaily星球日報訊 據官方公告,Tether 宣布推出 QVAC Fabric 中的跨平台 BitNet LoRA 微調框架,實現對 Microsoft BitNet(1-bit LLM)的訓練與推理優化。該框架顯著降低算力與記憶體需求,使十億參數級模型可在筆記本、消費級 GPU 及智慧型手機上完成訓練與微調。

該方案首次實現 BitNet 模型在移動端 GPU(包括 Adreno、Mali 及 Apple Bionic)上的微調,測試顯示,125M 參數模型可在約 10 分鐘內完成微調,1B 模型約 1 小時級別完成,甚至在手機端可擴展至 13B 參數模型。

此外,該框架支援 Intel、AMD 及 Apple Silicon 等異構硬體,並首次實現非 NVIDIA 設備上的 1-bit LLM LoRA 微調。性能方面,BitNet 模型在移動 GPU 上的推理速度較 CPU 提升 2 至 11 倍,同時在顯存占用上較傳統 16-bit 模型最高降低約 77.8%。

Tether 表示,該技術有望打破對高端算力與雲基礎設施的依賴,推動 AI 訓練向去中心化與本地化發展,並為聯邦學習等新型應用場景提供基礎。

免責聲明:本頁面資訊可能來自第三方,不一定反映KuCoin的觀點或意見。本內容僅供一般參考之用,不構成任何形式的陳述或保證,也不應被解釋為財務或投資建議。 KuCoin 對任何錯誤或遺漏,或因使用該資訊而導致的任何結果不承擔任何責任。 虛擬資產投資可能存在風險。請您根據自身的財務狀況仔細評估產品的風險以及您的風險承受能力。如需了解更多信息,請參閱我們的使用條款風險披露