Tether запускает ИИ-фреймворк для обучения моделей с миллиардами параметров на мобильных устройствах

iconChainthink
Поделиться
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconСводка

expand icon
Tether объявила 17 марта 2026 года о выпуске кроссплатформенного фреймворка LoRA для настройки Microsoft BitNet (1-bit LLM) на своей платформе QVAC Fabric AI, что стало важным обновлением в новостях об ончейн-технологиях. Фреймворк поддерживает обучение моделей с миллиардом параметров на потребительском оборудовании, таком как ноутбуки, смартфоны и GPU. Он работает на чипах Intel, AMD, Apple Silicon, Adreno, Mali и Bionic. Модель с 125 миллионами параметров была обучена за 10 минут на Samsung S25, а модель с 10 миллиардами параметров заняла 1 час 18 минут. BitNet работает в 2–11 раз быстрее на мобильных GPU, чем на CPU, и использует на 77,8% меньше памяти по сравнению с 16-битными моделями. Эти новости об ИИ и криптовалюте подчеркивают цели локального обучения и децентрализованного ИИ.

ChainThink сообщает, 17 марта эмитент стабильной монеты Tether объявила о запуске глобальной первой кросс-платформенной LoRA-системы тонкой настройки для Microsoft BitNet (1-bit LLM) на своей платформе QVAC Fabric, позволяющей обучать и выполнять вывод языковых моделей с параметрами в миллиарды на обычном оборудовании, включая ноутбуки, потребительские GPU и смартфоны.


Официально заявлено, что эта система значительно снижает требования к видеопамяти и вычислительной мощности для обучения моделей ИИ, поддерживая Intel, AMD, Apple Silicon и различные мобильные GPU (такие как Adreno, Mali, Apple Bionic).


В тестах модель BitNet с 125 миллионами параметров была дообучена за примерно 10 минут на Samsung S25; модель с 1 миллиардом параметров была дообучена за примерно 1 час 18 минут на Samsung S25 и за примерно 1 час 45 минут на iPhone 16; команда успешно дообучила модель с 13 миллиардами параметров на iPhone 16.


С точки зрения производительности, скорость вывода модели BitNet на мобильных GPU может быть в 2–11 раз выше, чем на CPU. Кроме того, тесты показали, что использование видеопамяти при выводе и тонкой настройке модели BitNet-1B по сравнению с 16-битными моделями может быть снижено до 77,8%.


Паоло Ардойно заявил, что данная технология направлена на снижение зависимости от крупных облачных вычислений и специализированного AI-оборудования, позволяя обучать AI-модели на локальных устройствах и создавая основу для новых моделей, таких как децентрализованный AI и федеративное обучение.

Отказ от ответственности: Информация на этой странице может быть получена от третьих лиц и не обязательно отражает взгляды или мнения KuCoin. Данный контент предоставляется исключительно в общих информационных целях, без каких-либо заверений или гарантий, а также не может быть истолкован как финансовый или инвестиционный совет. KuCoin не несет ответственности за ошибки или упущения, а также за любые результаты, полученные в результате использования этой информации. Инвестиции в цифровые активы могут быть рискованными. Пожалуйста, тщательно оценивайте риски, связанные с продуктом, и свою устойчивость к риску, исходя из собственных финансовых обстоятельств. Для получения более подробной информации, пожалуйста, ознакомьтесь с нашими Условиями использования и Уведомлением о риске.