ChainThink повідомляє, 17 березня випускник стабільних монет Tether оголосив про запуск глобальної першої крос-платформеної LoRA-системи тонкої настройки для Microsoft BitNet (1-bit LLM) на платформі QVAC Fabric, що дозволяє навчати та виконувати висновки мовних моделей з мільярдом параметрів на звичайному обладнанні, включаючи ноутбуки, споживчі GPU та смартфони.
Офіційно зазначено, що ця рамка значно знижує вимоги до пам’яті GPU та обчислювальної потужності для навчання моделей ШІ, підтримуючи Intel, AMD, Apple Silicon та різні мобільні GPU (наприклад, Adreno, Mali, Apple Bionic).
У тестах модель BitNet з 125 мільйонами параметрів була доналаштована за приблизно 10 хвилин на Samsung S25; модель з 1 мільярдом параметрів була доналаштована за приблизно 1 годину 18 хвилин на Samsung S25 та приблизно 1 годину 45 хвилин на iPhone 16, а команда навіть успішно доналаштувала модель з 13 мільярдами параметрів на iPhone 16.
Щодо продуктивності, швидкість висновку моделей BitNet на мобільних GPU може бути від 2 до 11 разів вищою, ніж на CPU. Крім того, тести показали, що використання пам’яті GPU для висновку та тонкої настройки BitNet-1B порівняно з 16-бітними моделями може зменшитися до 77,8%.
Паоло Ардойно зазначив, що ця технологія спрямована на зменшення залежності від великих хмарних обчислень та спеціалізованого AI-обладнання, дозволяючи навчання AI-моделей виконувати на локальних пристроях і надаючи основу для нових моделей, таких як децентралізований AI та федераційне навчання.
