ChainThink 消息,3 月 17 日,穩定幣發行商 Tether 宣布,其 AI 平台 QVAC Fabric 推出全球首個面向 Microsoft BitNet(1-bit LLM)的跨平台 LoRA 微調框架,使十億參數級語言模型能夠在普通硬體上完成訓練與推理,包括筆記型電腦、消費級 GPU 及智慧型手機。
官方表示,該框架顯著降低了 AI 模型訓練所需的顯存和算力門檻,支援 Intel、AMD、Apple Silicon 及多種移動 GPU(如 Adreno、Mali、Apple Bionic)。
在測試中,約 1.25 億參數的 BitNet 模型可在 Samsung S25 上約 10 分鐘完成微調;10 億參數模型在 Samsung S25 上約 1 小時 18 分鐘完成,在 iPhone 16 上約 1 小時 45 分鐘完成,團隊甚至成功在 iPhone 16 上微調 130 億參數模型。
在性能方面,BitNet 模型在移動 GPU 上的推理速度可比 CPU 提升 2 至 11 倍。同時,測試顯示 BitNet-1B 在推理與微調任務中的顯存占用相比 16-bit 模型最高可減少 77.8%。
Paolo Ardoino 表示,此項技術旨在降低對大型雲計算與專用 AI 硬體的依賴,讓 AI 模型訓練能夠在本地設備完成,並為去中心化 AI 與聯邦學習等新模式提供基礎。
