ChainThinkのメッセージ、2026年4月1日、1M AI Newsの監視によると、カリフォルニア工科大学の数学者ババック・ハシビが共同設立したAIラボPrismMLが非公開期間を終え、1-bit Bonsaiシリーズの大規模言語モデルをオープンソース化した。フラグシップモデルである1-bit Bonsai 8Bは82億パラメータを有し、メモリ使用量はわずか1.15GBで、同レベルの16-bitモデルと比較して約14倍圧縮されている。また、より小型の4B(0.5GB)および1.7B(0.24GB)モデルも同時に公開された。
Bonsai 8Bはエンドツーエンドの真1ビットモデルであり、埋め込み層、アテンション層、MLP層、出力ヘッドのすべての重みが+1または-1のみで表され、高精度パッチは使用されていない。PrismMLは、このモデルが標準ベンチマークにおける推論および言語理解能力が16ビットフルプレシジョンモデルと同等であると主張しており、その核心圧縮数学はチームがカリフォルニア工科大学で数年にわたり開発したものであり、知的財産はカリフォルニア工科大学に帰属し、PrismMLは唯一の独占ライセンシーである。このモデルはGoogleのv4 TPUで訓練された。
実測速度では、M4 Pro Macで136 tok/s、RTX 4090で440 tok/s、iPhone 17 Pro Maxで約44 tok/sです。標準的な16-bit 8BモデルはどのiPhoneにも収まらず、消費電力は16-bitモデルと比較して約4~5倍削減されます。PrismMLは、現在のハードウェアは1-bit推論用に設計されておらず、速度と消費電力の利点は主にメモリ使用量の削減によるものであると指摘しています。今後、1-bit用に特化したハードウェアが登場すれば、効率はさらに1桁向上する可能性があります。
PrismMLは1625万ドルのSAFEおよびシードラウンドを完了し、投資家にはKhosla Ventures、Cerberus Capital、カリフォルニア工科大学が含まれます。Khosla Venturesの創設者であるVinod Khoslaは、この成果を「小さな改善ではなく、重大な技術的ブレークスルーであり、数学的な突破であり、単なるもう一つの小さなモデルではない」と評価しました。
