Tether lance un cadre IA pour former des modèles à milliards de paramètres sur des appareils mobiles

iconChainthink
Partager
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRésumé

expand icon
Tether a annoncé le 17 mars 2026 le lancement d'un cadre de fine-tuning LoRA multiplateforme pour Microsoft BitNet (LLM à 1 bit) sur sa plateforme QVAC Fabric AI, marquant une mise à jour importante dans l'actualité chainée. Ce cadre permet d'entraîner des modèles de milliards de paramètres sur du matériel grand public comme les ordinateurs portables, les smartphones et les GPU. Il fonctionne sur les puces Intel, AMD, Apple Silicon, Adreno, Mali et Bionic. Un modèle de 125 millions de paramètres a été entraîné en 10 minutes sur un Samsung S25, tandis qu'un modèle de 10 milliards de paramètres a nécessité 1 heure 18 minutes. BitNet fonctionne de 2 à 11 fois plus rapidement sur les GPU mobiles que sur les CPU et utilise 77,8 % moins de mémoire que les modèles 16 bits. Cette actualité AI + crypto met en avant l'entraînement local et les objectifs d'IA décentralisée.

ChainThink : le 17 mars, l'émetteur de stablecoin Tether a annoncé le lancement de QVAC Fabric, le premier cadre de micro-adaptation LoRA multiplateforme au monde pour Microsoft BitNet (LLM à 1 bit), permettant d'entraîner et d'effectuer de l'inférence sur des modèles linguistiques de plusieurs milliards de paramètres sur du matériel courant, y compris des ordinateurs portables, des GPU grand public et des smartphones.


L'entreprise déclare que ce cadre réduit considérablement les exigences en mémoire vidéo et en puissance de calcul nécessaires pour l'entraînement des modèles d'IA, et prend en charge Intel, AMD, Apple Silicon ainsi que plusieurs GPU mobiles (tels qu'Adreno, Mali et Apple Bionic).


Lors des tests, un modèle BitNet d'environ 125 millions de paramètres a été affiné en environ 10 minutes sur le Samsung S25 ; un modèle de 1 milliard de paramètres a été affiné en environ 1 heure 18 minutes sur le Samsung S25 et en environ 1 heure 45 minutes sur l'iPhone 16, l'équipe ayant même réussi à affiner un modèle de 13 milliards de paramètres sur l'iPhone 16.


En termes de performance, la vitesse d'inférence du modèle BitNet sur un GPU mobile peut être supérieure de 2 à 11 fois à celle d'un CPU. En outre, les tests montrent que la consommation de mémoire vidéo de BitNet-1B lors des tâches d'inférence et de fine-tuning peut être réduite jusqu'à 77,8 % par rapport aux modèles 16 bits.


Paolo Ardoino indique que cette technologie vise à réduire la dépendance aux grandes infrastructures de cloud computing et aux matériels AI dédiés, permettant l'entraînement de modèles AI sur des appareils locaux et offrant une base pour de nouveaux modèles tels que l'IA décentralisée et l'apprentissage fédéré.

Clause de non-responsabilité : les informations sur cette page peuvent avoir été obtenues auprès de tiers et ne reflètent pas nécessairement les points de vue ou opinions de KuCoin. Ce contenu est fourni à titre informatif uniquement, sans aucune représentation ou garantie d’aucune sorte, et ne doit pas être interprété comme un conseil en investissement. KuCoin ne sera pas responsable des erreurs ou omissions, ni des résultats résultant de l’utilisation de ces informations. Les investissements dans les actifs numériques peuvent être risqués. Veuillez évaluer soigneusement les risques d’un produit et votre tolérance au risque en fonction de votre propre situation financière. Pour plus d’informations, veuillez consulter nos conditions d’utilisation et divulgation des risques.