Caltech、1ビットBonsaiモデルをオープンソース化:iPhoneで8Bパラメータ、1.15GB、44 Tok/s

iconChainthink
共有
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary icon概要

expand icon
オンチェーンニュース:ババック・ハシビが率いるCaltechのPrismMLが、1ビットBonsai AIモデルをオープンソース化しました。8Bバージョンは82億パラメータ、メモリ使用量1.15GBで、iPhone 17 Pro Maxで秒間44トークンを処理します。AI+暗号通貨ニュース:このモデルは16ビット版と比較して4~5倍のエネルギー効率を実現しています。PrismMLはKhosla Ventures、Cerberus Capital、CaltechからSAFEおよびシードラウンドで1,625万ドルを調達しました。

ChainThinkのメッセージ、2026年4月1日、1M AI Newsの監視によると、カリフォルニア工科大学の数学者ババック・ハシビが共同設立したAIラボPrismMLが非公開期間を終え、1-bit Bonsaiシリーズの大規模言語モデルをオープンソース化した。フラグシップモデルである1-bit Bonsai 8Bは82億パラメータを有し、メモリ使用量はわずか1.15GBで、同レベルの16-bitモデルと比較して約14倍圧縮されている。また、より小型の4B(0.5GB)および1.7B(0.24GB)モデルも同時に公開された。


Bonsai 8Bはエンドツーエンドの真1ビットモデルであり、埋め込み層、アテンション層、MLP層、出力ヘッドのすべての重みが+1または-1のみで表され、高精度パッチは使用されていない。PrismMLは、このモデルが標準ベンチマークにおける推論および言語理解能力が16ビットフルプレシジョンモデルと同等であると主張しており、その核心圧縮数学はチームがカリフォルニア工科大学で数年にわたり開発したものであり、知的財産はカリフォルニア工科大学に帰属し、PrismMLは唯一の独占ライセンシーである。このモデルはGoogleのv4 TPUで訓練された。


実測速度では、M4 Pro Macで136 tok/s、RTX 4090で440 tok/s、iPhone 17 Pro Maxで約44 tok/sです。標準的な16-bit 8BモデルはどのiPhoneにも収まらず、消費電力は16-bitモデルと比較して約4~5倍削減されます。PrismMLは、現在のハードウェアは1-bit推論用に設計されておらず、速度と消費電力の利点は主にメモリ使用量の削減によるものであると指摘しています。今後、1-bit用に特化したハードウェアが登場すれば、効率はさらに1桁向上する可能性があります。


PrismMLは1625万ドルのSAFEおよびシードラウンドを完了し、投資家にはKhosla Ventures、Cerberus Capital、カリフォルニア工科大学が含まれます。Khosla Venturesの創設者であるVinod Khoslaは、この成果を「小さな改善ではなく、重大な技術的ブレークスルーであり、数学的な突破であり、単なるもう一つの小さなモデルではない」と評価しました。

免責事項: 本ページの情報はサードパーティからのものであり、必ずしもKuCoinの見解や意見を反映しているわけではありません。この内容は一般的な情報提供のみを目的として提供されており、いかなる種類の表明や保証もなく、金融または投資助言として解釈されるものでもありません。KuCoinは誤記や脱落、またはこの情報の使用に起因するいかなる結果に対しても責任を負いません。 デジタル資産への投資にはリスクが伴います。商品のリスクとリスク許容度をご自身の財務状況に基づいて慎重に評価してください。詳しくは利用規約およびリスク開示を参照してください。