Caltech open-source le modèle Bonsai à 1 bit : 8 milliards de paramètres en 1,15 Go, 44 tok/s sur iPhone

iconChainthink
Partager
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRésumé

expand icon
Actualités sur la chaîne : PrismML du Caltech, dirigé par Babak Hassibi, a open-sourcé les modèles d'IA Bonsai à 1 bit. La variante de 8 Go contient 8,2 milliards de paramètres, occupe 1,15 Go de mémoire et fonctionne à 44 jetons par seconde sur un iPhone 17 Pro Max. Actualités IA + crypto : Le modèle utilise 4 à 5 fois moins d'énergie que les versions 16 bits. PrismML a levé 16,25 millions de dollars lors de rounds SAFE et seed auprès de Khosla Ventures, Cerberus Capital et Caltech.

Message de ChainThink, le 1er avril 2026 : selon les données de 1M AI News, le laboratoire d'IA PrismML, cofondé par le mathématicien du Caltech Babak Hassibi, met fin à sa période d'incognito et open-source la série de grands modèles linguistiques 1-bit Bonsai. Le modèle phare, 1-bit Bonsai 8B, compte 8,2 milliards de paramètres et occupe seulement 1,15 Go de mémoire, soit une compression d'environ 14 fois par rapport aux modèles 16-bit de même taille. Deux modèles plus petits sont également publiés : 4B (0,5 Go) et 1,7B (0,24 Go).


Bonsai 8B est un modèle 1-bit end-to-end véritable, avec des poids uniquement représentés par +1 ou -1 dans les couches d'embedding, d'attention, MLP et la tête de sortie, sans patchs à haute précision. PrismML affirme que ses capacités d'inférence et de compréhension linguistique sur des benchmarks standards sont comparables à celles des modèles full-precision 16-bit. Les mathématiques de compression centrales ont été développées pendant plusieurs années par l'équipe au California Institute of Technology, dont la propriété intellectuelle appartient, et PrismML est le seul licencié exclusif. Le modèle a été entraîné sur des TPU v4 de Google.


En termes de vitesse réelle, le M4 Pro Mac atteint 136 tok/s, la RTX 4090 atteint 440 tok/s, et l’iPhone 17 Pro Max enregistre environ 44 tok/s. Le modèle standard de 8 Go en 16 bits ne peut pas être chargé sur aucun iPhone, avec une consommation énergétique réduite d’environ 4 à 5 fois par rapport au modèle 16 bits. PrismML souligne que le matériel actuel n’est pas conçu pour l’inférence en 1 bit ; les avantages en vitesse et en consommation énergétique proviennent principalement de la réduction de l’occupation mémoire. Si des matériels spécifiquement conçus pour l’inférence en 1 bit apparaissent à l’avenir, l’efficacité pourrait encore augmenter d’un ordre de grandeur.


PrismML a levé 16,25 millions de dollars en financement SAFE et seed, avec des investisseurs tels que Khosla Ventures, Cerberus Capital et le California Institute of Technology. Le fondateur de Khosla Ventures, Vinod Khosla, a évalué ce résultat comme « une rupture technologique majeure, une avancée mathématique, et non simplement un autre petit modèle ».

Clause de non-responsabilité : les informations sur cette page peuvent avoir été obtenues auprès de tiers et ne reflètent pas nécessairement les points de vue ou opinions de KuCoin. Ce contenu est fourni à titre informatif uniquement, sans aucune représentation ou garantie d’aucune sorte, et ne doit pas être interprété comme un conseil en investissement. KuCoin ne sera pas responsable des erreurs ou omissions, ni des résultats résultant de l’utilisation de ces informations. Les investissements dans les actifs numériques peuvent être risqués. Veuillez évaluer soigneusement les risques d’un produit et votre tolérance au risque en fonction de votre propre situation financière. Pour plus d’informations, veuillez consulter nos conditions d’utilisation et divulgation des risques.