Tether、消費者デバイスでの十億パラメータモデル学習向けクロスプラットフォームBitNet LoRAフレームワークを発表

iconPANews
共有
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary icon概要

expand icon
テザーは、オンチェーンニュースおよび暗号通貨ニュース用のクロスプラットフォームBitNet LoRAフレームワークを発表し、消費者向けハードウェア上でマイクロソフトの1ビットBitNetモデルの学習を可能にしました。このツールにより、10億パラメータ規模のモデルをラップトップ、スマートフォン、Adreno、Mali、Apple BionicなどのGPU上で実行できます。10億パラメータモデルの微調整には約1時間かかります。このシステムはIntel、AMD、Apple Siliconをサポートし、1ビットLLMのLoRAチューニングをNVIDIA以外のデバイスで初めて実現しました。BitNetモデルはモバイルGPU上でCPUと比較して2~11倍高速に動作し、16ビットバージョンと比較して77.8%少ないメモリを使用します。テザーは、この技術がクラウド依存を削減し、分散型AI学習を可能にするとしています。

PANews 3月21日、公式発表によると、Tetherは、QVAC Fabric内にクロスプラットフォームのBitNet LoRAファインチューニングフレームワークを導入し、Microsoft BitNet(1-bit LLM)のトレーニングと推論を最適化すると発表しました。このフレームワークは、計算リソースとメモリ要件を大幅に削減し、十億パラメータ級のモデルをノートパソコン、コンシューマー向けGPU、スマートフォン上でトレーニングおよびファインチューニング可能にします。 このソリューションは、BitNetモデルをモバイルGPU(Adreno、Mali、Apple Bionicを含む)上でファインチューニングすることを初めて実現しました。テスト結果によると、125Mパラメータモデルは約10分でファインチューニングが完了し、1Bモデルは約1時間で完了します。さらに、スマートフォン上で13Bパラメータモデルまで拡張可能です。 また、このフレームワークはIntel、AMD、Apple Siliconなどの非NVIDIAハードウェアをサポートし、NVIDIAデバイス以外での1-bit LLM LoRAファインチューニングを初めて実現しました。性能面では、BitNetモデルのモバイルGPU上の推論速度はCPUと比較して2〜11倍向上し、VRAM使用量は従来の16-bitモデルと比較して最大で約77.8%削減されます。 Tetherは、この技術が高パフォーマンス計算リソースやクラウドインフラへの依存を打破し、AIトレーニングの分散化とローカライズ化を推進するとともに、フェデレーテッドラーニングなどの新規アプリケーションの基盤を提供すると述べています。

免責事項: 本ページの情報はサードパーティからのものであり、必ずしもKuCoinの見解や意見を反映しているわけではありません。この内容は一般的な情報提供のみを目的として提供されており、いかなる種類の表明や保証もなく、金融または投資助言として解釈されるものでもありません。KuCoinは誤記や脱落、またはこの情報の使用に起因するいかなる結果に対しても責任を負いません。 デジタル資産への投資にはリスクが伴います。商品のリスクとリスク許容度をご自身の財務状況に基づいて慎重に評価してください。詳しくは利用規約およびリスク開示を参照してください。