Tether запускає AI-фреймворк для навчання моделей з мільярдами параметрів на мобільних пристроях

iconChainthink
Поділитися
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconКороткий зміст

expand icon
Tether оголосив 17 березня 2026 року про випуск крос-платформеної рамки тонкої настройки LoRA для Microsoft BitNet (1-бітний LLM) на своїй платформі QVAC Fabric AI, що є ключовим оновленням у новинах на ланцюгу. Рамка підтримує навчання моделей з мільярдами параметрів на споживчому обладнанні, такому як ноутбуки, смартфони та GPU. Вона працює на чіпах Intel, AMD, Apple Silicon, Adreno, Mali та Bionic. Модель з 125 мільйонами параметрів була навчена за 10 хвилин на Samsung S25, а модель з 10 мільярдами параметрів — за 1 годину 18 хвилин. BitNet працює в 2–11 разів швидше на мобільних GPU, ніж на CPU, і використовує на 77,8% менше пам’яті, ніж 16-бітні моделі. Ця новина про штучний інтелект та криптовалюту підкреслює мети локального навчання та децентралізованого ІІ.

ChainThink повідомляє, 17 березня випускник стабільних монет Tether оголосив про запуск глобальної першої крос-платформеної LoRA-системи тонкої настройки для Microsoft BitNet (1-bit LLM) на платформі QVAC Fabric, що дозволяє навчати та виконувати висновки мовних моделей з мільярдом параметрів на звичайному обладнанні, включаючи ноутбуки, споживчі GPU та смартфони.


Офіційно зазначено, що ця рамка значно знижує вимоги до пам’яті GPU та обчислювальної потужності для навчання моделей ШІ, підтримуючи Intel, AMD, Apple Silicon та різні мобільні GPU (наприклад, Adreno, Mali, Apple Bionic).


У тестах модель BitNet з 125 мільйонами параметрів була доналаштована за приблизно 10 хвилин на Samsung S25; модель з 1 мільярдом параметрів була доналаштована за приблизно 1 годину 18 хвилин на Samsung S25 та приблизно 1 годину 45 хвилин на iPhone 16, а команда навіть успішно доналаштувала модель з 13 мільярдами параметрів на iPhone 16.


Щодо продуктивності, швидкість висновку моделей BitNet на мобільних GPU може бути від 2 до 11 разів вищою, ніж на CPU. Крім того, тести показали, що використання пам’яті GPU для висновку та тонкої настройки BitNet-1B порівняно з 16-бітними моделями може зменшитися до 77,8%.


Паоло Ардойно зазначив, що ця технологія спрямована на зменшення залежності від великих хмарних обчислень та спеціалізованого AI-обладнання, дозволяючи навчання AI-моделей виконувати на локальних пристроях і надаючи основу для нових моделей, таких як децентралізований AI та федераційне навчання.

Відмова від відповідальності: Інформація на цій сторінці може бути отримана від третіх осіб і не обов'язково відображає погляди або думки KuCoin. Цей контент надається лише для загального інформування, без будь-яких запевнень або гарантій, а також не може розглядатися як фінансова або інвестиційна порада. KuCoin не несе відповідальності за будь-які помилки або упущення, а також за будь-які результати, отримані в результаті використання цієї інформації. Інвестиції в цифрові активи можуть бути ризикованими. Будь ласка, ретельно оцініть ризики продукту та свою толерантність до ризику, виходячи з ваших власних фінансових обставин. Для отримання додаткової інформації, будь ласка, зверніться до наших Умов використання та Розкриття інформації про ризики.