Message de ChainThink, le 1er avril 2026 : selon les données de 1M AI News, le laboratoire d'IA PrismML, cofondé par le mathématicien du Caltech Babak Hassibi, met fin à sa période d'incognito et open-source la série de grands modèles linguistiques 1-bit Bonsai. Le modèle phare, 1-bit Bonsai 8B, compte 8,2 milliards de paramètres et occupe seulement 1,15 Go de mémoire, soit une compression d'environ 14 fois par rapport aux modèles 16-bit de même taille. Deux modèles plus petits sont également publiés : 4B (0,5 Go) et 1,7B (0,24 Go).
Bonsai 8B est un modèle 1-bit end-to-end véritable, avec des poids uniquement représentés par +1 ou -1 dans les couches d'embedding, d'attention, MLP et la tête de sortie, sans patchs à haute précision. PrismML affirme que ses capacités d'inférence et de compréhension linguistique sur des benchmarks standards sont comparables à celles des modèles full-precision 16-bit. Les mathématiques de compression centrales ont été développées pendant plusieurs années par l'équipe au California Institute of Technology, dont la propriété intellectuelle appartient, et PrismML est le seul licencié exclusif. Le modèle a été entraîné sur des TPU v4 de Google.
En termes de vitesse réelle, le M4 Pro Mac atteint 136 tok/s, la RTX 4090 atteint 440 tok/s, et l’iPhone 17 Pro Max enregistre environ 44 tok/s. Le modèle standard de 8 Go en 16 bits ne peut pas être chargé sur aucun iPhone, avec une consommation énergétique réduite d’environ 4 à 5 fois par rapport au modèle 16 bits. PrismML souligne que le matériel actuel n’est pas conçu pour l’inférence en 1 bit ; les avantages en vitesse et en consommation énergétique proviennent principalement de la réduction de l’occupation mémoire. Si des matériels spécifiquement conçus pour l’inférence en 1 bit apparaissent à l’avenir, l’efficacité pourrait encore augmenter d’un ordre de grandeur.
PrismML a levé 16,25 millions de dollars en financement SAFE et seed, avec des investisseurs tels que Khosla Ventures, Cerberus Capital et le California Institute of Technology. Le fondateur de Khosla Ventures, Vinod Khosla, a évalué ce résultat comme « une rupture technologique majeure, une avancée mathématique, et non simplement un autre petit modèle ».
