テザー、消費者デバイス上で十億パラメータのAIモデルを学習するためのクロスプラットフォームBitNet LoRAフレームワークを発表

iconKuCoinFlash
共有
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary icon概要

expand icon
テザーは、オンチェーンニュースとAI+暗号通貨ニュース用のクロスプラットフォームBitNet LoRAフレームワークを発表しました。このフレームワークにより、十億パラメータ規模のAIモデルが消費者デバイス上で学習可能になります。このフレームワークはQVAC Fabricの一部であり、マイクロソフトのBitNetを低計算リソースと低メモリ使用量に最適化しています。Adreno、Mali、Apple Bionicなどに対応し、10億パラメータモデルは約1時間で微調整可能です。NVIDIA以外のハードウェアでも1ビットLLMの学習が可能になりました。BitNetモデルはモバイルGPU上でCPUと比較して2~11倍高速に動作し、16ビットモデルと比較してVRAMを77.8%削減します。テザーは、この技術がクラウド依存を削減し、分散型AI学習を支援すると述べています。

Odaily星球日報によると、公式公告によれば、Tetherは、Microsoft BitNet(1-bit LLM)のトレーニングと推論を最適化するため、クロスプラットフォームBitNet LoRAファインチューニングフレームワークをQVAC Fabricに導入した。このフレームワークは、計算リソースとメモリ要件を大幅に削減し、十億パラメータ級のモデルをノートパソコン、コンシューマー向けGPU、スマートフォン上でトレーニングおよびファインチューニング可能にする。

このソリューションは、BitNetモデルをモバイルGPU(Adreno、Mali、Apple Bionicを含む)上で微調整することを初めて実現しました。テスト結果によると、125Mパラメータモデルは約10分で微調整でき、1Bモデルは約1時間で完了し、スマートフォン上で13Bパラメータモデルまで拡張可能です。

また、このフレームワークはIntel、AMD、Apple Siliconなどの異種ハードウェアをサポートし、NVIDIA以外のデバイス上で1-bit LLM LoRAファインチューニングを初めて実現しました。性能面では、BitNetモデルはモバイルGPUでの推論速度がCPUと比較して2〜11倍向上し、メモリ使用量は従来の16-bitモデルと比較して最大で約77.8%削減されます。

Tetherは、この技術が高級な計算能力とクラウドインフラへの依存を打破し、AIトレーニングを分散化およびローカリゼーションへ推進し、フェデレーテッドラーニングなどの新規アプリケーションシーンの基盤を提供すると示しています。

免責事項: 本ページの情報はサードパーティからのものであり、必ずしもKuCoinの見解や意見を反映しているわけではありません。この内容は一般的な情報提供のみを目的として提供されており、いかなる種類の表明や保証もなく、金融または投資助言として解釈されるものでもありません。KuCoinは誤記や脱落、またはこの情報の使用に起因するいかなる結果に対しても責任を負いません。 デジタル資産への投資にはリスクが伴います。商品のリスクとリスク許容度をご自身の財務状況に基づいて慎重に評価してください。詳しくは利用規約およびリスク開示を参照してください。