ChainThinkのメッセージによると、3月17日、安定通貨発行会社Tetherは、AIプラットフォームQVAC Fabricをリリースし、世界初のMicrosoft BitNet(1-bit LLM)向けクロスプラットフォームLoRAファインチューニングフレームワークを提供しました。これにより、十億パラメータ級の言語モデルを、ノートパソコン、コンシューマー向けGPU、スマートフォンなどの一般ハードウェア上で学習および推論可能にします。
公式によると、このフレームワークはAIモデルのトレーニングに必要なVRAMと計算リソースのハードルを大幅に低下させ、Intel、AMD、Apple Silicon、およびAdreno、Mali、Apple Bionicなどの複数のモバイルGPUをサポートしています。
テストにおいて、約1.25億パラメータのBitNetモデルはSamsung S25で約10分間で微調整が完了し、10億パラメータのモデルはSamsung S25で約1時間18分、iPhone 16で約1時間45分で微調整が完了しました。チームはさらにiPhone 16上で130億パラメータのモデルの微調整に成功しました。
性能面で、BitNetモデルはモバイルGPUでの推論速度がCPUと比較して2〜11倍向上します。また、テスト結果によると、BitNet-1Bは推論およびファインチューニングタスクにおけるVRAM使用量が16ビットモデルと比較して最大77.8%削減されます。
パオロ・アルドイノは、この技術が大規模なクラウドコンピューティングと専用AIハードウェアへの依存を削減し、AIモデルのトレーニングをローカルデバイスで実行可能にし、分散型AIやフェデレーテッドラーニングなどの新しいモデルの基盤を提供することを目的としていると述べました。
