Сообщение ChainThink, 1 апреля 2026 года: согласно данным 1M AI News, лаборатория искусственного интеллекта PrismML, основанная математиком Калифорнийского технологического института Бабаком Хассиби, завершила период скрытой разработки и открыла исходный код серии больших языковых моделей 1-bit Bonsai. Флагманская модель 1-bit Bonsai 8B имеет 8,2 миллиарда параметров и занимает всего 1,15 ГБ памяти, что составляет примерно 14-кратное сжатие по сравнению с аналогичными 16-битными моделями. Одновременно были выпущены две более компактные модели: 4B (0,5 ГБ) и 1,7B (0,24 ГБ).
Bonsai 8B — это энд-ту-энд истинная 1-битная модель, в которой все слои: встраивания, внимания, MLP и выходной слой, используют исключительно веса +1 или -1, без высокоточных коррекций. PrismML утверждает, что ее способности к выводу и пониманию языка на стандартных тестах сопоставимы с 16-битными полноточными моделями. Основная математика сжатия была разработана командой в Калифорнийском технологическом институте в течение нескольких лет, интеллектуальная собственность принадлежит Калифорнийскому технологическому институту, а PrismML является единственным эксклюзивным лицензиатом. Модель обучалась на TPU v4 от Google.
На практике скорость на M4 Pro Mac составляет 136 ток/с, на RTX 4090 — 440 ток/с, на iPhone 17 Pro Max — около 44 ток/с; стандартная 16-битная модель размером 8B не помещается ни на одном iPhone, а энергопотребление снижено примерно в 4–5 раз по сравнению с 16-битной моделью. PrismML отмечает, что существующее оборудование не предназначено для 1-битного вывода, и преимущества по скорости и энергопотреблению в основном обусловлены сокращением объема памяти; если в будущем появится оборудование, специально разработанное для 1-битного вывода, эффективность можно будет повысить еще на порядок.
PrismML завершила раунд финансирования в размере 16,25 млн долларов США по формату SAFE и семя, инвесторами выступили Khosla Ventures, Cerberus Capital и Калифорнийский технологический институт. Основатель Khosla Ventures Винод Хосла оценил этот результат как «не небольшую итерацию, а значительный технологический прорыв, математический прорыв, а не просто еще одна небольшая модель».
