Tether 推出 AI 框架,用於在行動裝置上訓練十億參數模型

iconChainthink
分享
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary icon精華摘要

expand icon
Tether 於 2026 年 3 月 17 日宣佈,在其 QVAC Fabric AI 平台上推出適用於 Microsoft BitNet(1 位元 LLM)的跨平台 LoRA 微調框架,這標誌著鏈上新聞的重要更新。該框架支援在筆記型電腦、智慧型手機和 GPU 等消費級硬體上訓練十億參數模型,並兼容 Intel、AMD、Apple Silicon、Adreno、Mali 和 Bionic 芯片。在 Samsung S25 上,1.25 億參數模型僅需 10 分鐘即可完成訓練,而 100 億參數模型則耗時 1 小時 18 分鐘。BitNet 在行動 GPU 上的運行速度比 CPU 快 2 至 11 倍,且記憶體使用量比 16 位元模型減少 77.8%。此 AI + 加密貨幣新聞凸顯了本地訓練與去中心化 AI 的目標。

ChainThink 消息,3 月 17 日,穩定幣發行商 Tether 宣布,其 AI 平台 QVAC Fabric 推出全球首個面向 Microsoft BitNet(1-bit LLM)的跨平台 LoRA 微調框架,使十億參數級語言模型能夠在普通硬體上完成訓練與推理,包括筆記型電腦、消費級 GPU 及智慧型手機。


官方表示,該框架顯著降低了 AI 模型訓練所需的顯存和算力門檻,支援 Intel、AMD、Apple Silicon 及多種移動 GPU(如 Adreno、Mali、Apple Bionic)。


在測試中,約 1.25 億參數的 BitNet 模型可在 Samsung S25 上約 10 分鐘完成微調;10 億參數模型在 Samsung S25 上約 1 小時 18 分鐘完成,在 iPhone 16 上約 1 小時 45 分鐘完成,團隊甚至成功在 iPhone 16 上微調 130 億參數模型。


在性能方面,BitNet 模型在移動 GPU 上的推理速度可比 CPU 提升 2 至 11 倍。同時,測試顯示 BitNet-1B 在推理與微調任務中的顯存占用相比 16-bit 模型最高可減少 77.8%。


Paolo Ardoino 表示,此項技術旨在降低對大型雲計算與專用 AI 硬體的依賴,讓 AI 模型訓練能夠在本地設備完成,並為去中心化 AI 與聯邦學習等新模式提供基礎。

免責聲明:本頁面資訊可能來自第三方,不一定反映KuCoin的觀點或意見。本內容僅供一般參考之用,不構成任何形式的陳述或保證,也不應被解釋為財務或投資建議。 KuCoin 對任何錯誤或遺漏,或因使用該資訊而導致的任何結果不承擔任何責任。 虛擬資產投資可能存在風險。請您根據自身的財務狀況仔細評估產品的風險以及您的風險承受能力。如需了解更多信息,請參閱我們的使用條款風險披露