ChainThink сообщает, 17 марта эмитент стабильной монеты Tether объявила о запуске глобальной первой кросс-платформенной LoRA-системы тонкой настройки для Microsoft BitNet (1-bit LLM) на своей платформе QVAC Fabric, позволяющей обучать и выполнять вывод языковых моделей с параметрами в миллиарды на обычном оборудовании, включая ноутбуки, потребительские GPU и смартфоны.
Официально заявлено, что эта система значительно снижает требования к видеопамяти и вычислительной мощности для обучения моделей ИИ, поддерживая Intel, AMD, Apple Silicon и различные мобильные GPU (такие как Adreno, Mali, Apple Bionic).
В тестах модель BitNet с 125 миллионами параметров была дообучена за примерно 10 минут на Samsung S25; модель с 1 миллиардом параметров была дообучена за примерно 1 час 18 минут на Samsung S25 и за примерно 1 час 45 минут на iPhone 16; команда успешно дообучила модель с 13 миллиардами параметров на iPhone 16.
С точки зрения производительности, скорость вывода модели BitNet на мобильных GPU может быть в 2–11 раз выше, чем на CPU. Кроме того, тесты показали, что использование видеопамяти при выводе и тонкой настройке модели BitNet-1B по сравнению с 16-битными моделями может быть снижено до 77,8%.
Паоло Ардойно заявил, что данная технология направлена на снижение зависимости от крупных облачных вычислений и специализированного AI-оборудования, позволяя обучать AI-модели на локальных устройствах и создавая основу для новых моделей, таких как децентрализованный AI и федеративное обучение.
