PANews 3月17日、Tetherの子会社QVAC Fabricが、マイクロソフトのBitNet(1ビットLLM)向けの世界初のクロスプラットフォームLoRAファインチューニングフレームワークをリリースし、大規模モデルのトレーニングに必要なVRAMと計算リソースのハードルを大幅に低下させた。このフレームワークは、Intel、AMD、Apple Silicon Mシリーズ、およびAdreno、Mali、Apple BionicなどのモバイルGPUでのLoRAファインチューニングと推論加速をサポートする。
Tether、モバイルLLMトレーニング用のBitNet LoRAフレームワークを発表
PANews共有






テザーのQVAC Fabricが、マイクロソフトのBitNet(1ビットLLM)向けの初のクロスプラットフォームLoRAファインチューニングフレームワークをリリースし、重要なオンチェーンニュースとして注目されています。このフレームワークは、大規模モデルのトレーニングに必要なGPUメモリと計算リソースを削減します。Intel、AMD、Apple Silicon Mシリーズ、およびAdreno、Mali、Apple BionicなどのモバイルGPUで動作します。この動きは、ブロックチェーンがAIインフラへと拡大し続ける中で、リアルワールドアセット(RWA)に関するニュースの増加と一致しています。
出典:原文を表示
免責事項: 本ページの情報はサードパーティからのものであり、必ずしもKuCoinの見解や意見を反映しているわけではありません。この内容は一般的な情報提供のみを目的として提供されており、いかなる種類の表明や保証もなく、金融または投資助言として解釈されるものでもありません。KuCoinは誤記や脱落、またはこの情報の使用に起因するいかなる結果に対しても責任を負いません。
デジタル資産への投資にはリスクが伴います。商品のリスクとリスク許容度をご自身の財務状況に基づいて慎重に評価してください。詳しくは利用規約およびリスク開示を参照してください。