テザー、モバイルデバイス上で十億パラメータモデルを学習するためのAIフレームワークを発表

iconChainthink
共有
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary icon概要

expand icon
テザーは2026年3月17日、QVAC Fabric AIプラットフォーム上でマイクロソフトのBitNet(1ビットLLM)向けのクロスプラットフォームLoRAファインチューニングフレームワークをリリースすると発表し、オンチェーンニュースにおける重要なアップデートとなりました。このフレームワークは、ラップトップ、スマートフォン、GPUなどの一般消費者向けハードウェア上で数十億パラメータのモデルをトレーニングすることを可能にします。Intel、AMD、Apple Silicon、Adreno、Mali、Bionicチップに対応しています。Samsung S25上で1億2500万パラメータのモデルは10分でトレーニングされ、100億パラメータのモデルは1時間18分で完了しました。BitNetはモバイルGPU上でCPUよりも2〜11倍高速に動作し、16ビットモデルと比較して77.8%少ないメモリを使用します。このAI+暗号通貨ニュースは、ローカルトレーニングと分散型AIの目標を強調しています。

ChainThinkのメッセージによると、3月17日、安定通貨発行会社Tetherは、AIプラットフォームQVAC Fabricをリリースし、世界初のMicrosoft BitNet(1-bit LLM)向けクロスプラットフォームLoRAファインチューニングフレームワークを提供しました。これにより、十億パラメータ級の言語モデルを、ノートパソコン、コンシューマー向けGPU、スマートフォンなどの一般ハードウェア上で学習および推論可能にします。


公式によると、このフレームワークはAIモデルのトレーニングに必要なVRAMと計算リソースのハードルを大幅に低下させ、Intel、AMD、Apple Silicon、およびAdreno、Mali、Apple Bionicなどの複数のモバイルGPUをサポートしています。


テストにおいて、約1.25億パラメータのBitNetモデルはSamsung S25で約10分間で微調整が完了し、10億パラメータのモデルはSamsung S25で約1時間18分、iPhone 16で約1時間45分で微調整が完了しました。チームはさらにiPhone 16上で130億パラメータのモデルの微調整に成功しました。


性能面で、BitNetモデルはモバイルGPUでの推論速度がCPUと比較して2〜11倍向上します。また、テスト結果によると、BitNet-1Bは推論およびファインチューニングタスクにおけるVRAM使用量が16ビットモデルと比較して最大77.8%削減されます。


パオロ・アルドイノは、この技術が大規模なクラウドコンピューティングと専用AIハードウェアへの依存を削減し、AIモデルのトレーニングをローカルデバイスで実行可能にし、分散型AIやフェデレーテッドラーニングなどの新しいモデルの基盤を提供することを目的としていると述べました。

免責事項: 本ページの情報はサードパーティからのものであり、必ずしもKuCoinの見解や意見を反映しているわけではありません。この内容は一般的な情報提供のみを目的として提供されており、いかなる種類の表明や保証もなく、金融または投資助言として解釈されるものでもありません。KuCoinは誤記や脱落、またはこの情報の使用に起因するいかなる結果に対しても責任を負いません。 デジタル資産への投資にはリスクが伴います。商品のリスクとリスク許容度をご自身の財務状況に基づいて慎重に評価してください。詳しくは利用規約およびリスク開示を参照してください。