Theo thông báo từ ChainThink, vào ngày 1 tháng 4 năm 2026, theo giám sát của 1M AI News, phòng thí nghiệm AI PrismML do nhà toán học tại Viện Công nghệ California Babak Hassibi đồng sáng lập đã kết thúc giai đoạn ẩn danh và mở nguồn các mô hình ngôn ngữ lớn chuỗi 1-bit Bonsai. Mô hình chủ lực 1-bit Bonsai 8B có 8,2 tỷ tham số, chiếm dụng bộ nhớ chỉ 1,15 GB, giảm kích thước khoảng 14 lần so với các mô hình 16-bit cùng cấp độ, đồng thời cũng công bố hai mô hình nhỏ hơn là 4B (0,5 GB) và 1,7B (0,24 GB).
Bonsai 8B là mô hình 1-bit chân thực end-to-end, với các lớp nhúng, lớp chú ý, lớp MLP và đầu ra đầu ra đều chỉ sử dụng trọng số +1 hoặc -1, không có patch độ chính xác cao. PrismML cho biết khả năng suy luận và hiểu ngôn ngữ của mô hình này trên các bài kiểm tra chuẩn tương đương với các mô hình độ chính xác đầy đủ 16-bit, toán học nén cốt lõi do nhóm nghiên cứu phát triển trong nhiều năm tại Caltech, quyền sở hữu trí tuệ thuộc về Caltech, PrismML là bên được cấp phép độc quyền duy nhất, mô hình được huấn luyện trên TPU v4 của Google.
Về tốc độ thực tế, M4 Pro Mac đạt 136 tok/s, RTX 4090 đạt 440 tok/s, iPhone 17 Pro Max đạt khoảng 44 tok/s; mô hình chuẩn 16-bit 8B không thể nạp vào bất kỳ iPhone nào, mức tiêu thụ năng lượng giảm khoảng 4-5 lần so với mô hình 16-bit. PrismML chỉ ra rằng phần cứng hiện tại không được thiết kế cho suy luận 1-bit, lợi thế về tốc độ và tiêu thụ năng lượng chủ yếu đến từ việc giảm dung lượng bộ nhớ; nếu trong tương lai xuất hiện phần cứng được thiết kế đặc biệt cho 1-bit, hiệu suất còn có thể tăng thêm một cấp độ.
PrismML đã huy động được 16,25 triệu USD trong vòng tài trợ SAFE và vòng seed từ các nhà đầu tư Khosla Ventures, Cerberus Capital và Caltech. Chủ tịch Khosla Ventures, Vinod Khosla, đánh giá thành tựu này là “không phải một bản cập nhật nhỏ, mà là một bước đột phá công nghệ lớn, một bước tiến về toán học, không chỉ là một mô hình nhỏ nữa”.
