Odaily星球日報によると、公式公告によれば、Tetherは、Microsoft BitNet(1-bit LLM)のトレーニングと推論を最適化するため、クロスプラットフォームBitNet LoRAファインチューニングフレームワークをQVAC Fabricに導入した。このフレームワークは、計算リソースとメモリ要件を大幅に削減し、十億パラメータ級のモデルをノートパソコン、コンシューマー向けGPU、スマートフォン上でトレーニングおよびファインチューニング可能にする。
このソリューションは、BitNetモデルをモバイルGPU(Adreno、Mali、Apple Bionicを含む)上で微調整することを初めて実現しました。テスト結果によると、125Mパラメータモデルは約10分で微調整でき、1Bモデルは約1時間で完了し、スマートフォン上で13Bパラメータモデルまで拡張可能です。
また、このフレームワークはIntel、AMD、Apple Siliconなどの異種ハードウェアをサポートし、NVIDIA以外のデバイス上で1-bit LLM LoRAファインチューニングを初めて実現しました。性能面では、BitNetモデルはモバイルGPUでの推論速度がCPUと比較して2〜11倍向上し、メモリ使用量は従来の16-bitモデルと比較して最大で約77.8%削減されます。
Tetherは、この技術が高級な計算能力とクラウドインフラへの依存を打破し、AIトレーニングを分散化およびローカリゼーションへ推進し、フェデレーテッドラーニングなどの新規アプリケーションシーンの基盤を提供すると示しています。
