Tether lance le cadre BitNet LoRA multiplateforme pour former des modèles d'IA à milliards de paramètres sur des appareils grand public

iconKuCoinFlash
Partager
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRésumé

expand icon
Tether a annoncé un cadre cross-platform BitNet LoRA pour les actualités sur chaîne et les nouvelles AI + crypto, permettant aux modèles AI de milliards de paramètres de s'entraîner sur des appareils grand public. Ce cadre, intégré à QVAC Fabric, optimise BitNet de Microsoft pour une faible consommation de calcul et de mémoire. Il prend en charge Adreno, Mali, Apple Bionic et plus encore, avec des modèles de 1 milliard de paramètres affinés en environ une heure. Les matériels non NVIDIA prennent désormais en charge l'entraînement de modèles LLM à 1 bit. Les modèles BitNet fonctionnent 2 à 11 fois plus vite sur les GPU mobiles que sur les CPU, en utilisant 77,8 % moins de VRAM que les modèles 16 bits. Tether affirme que cette technologie réduit la dépendance au cloud et soutient l'entraînement décentralisé de l'IA.

Odaily Planet Daily rapporte, selon un communiqué officiel, que Tether a lancé un cadre de micro-ajustement LoRA multi-plateforme dans QVAC Fabric, optimisant l'entraînement et l'inférence de Microsoft BitNet (LLM à 1 bit). Ce cadre réduit considérablement les besoins en puissance de calcul et en mémoire, permettant l'entraînement et le micro-ajustement de modèles de plusieurs milliards de paramètres sur des ordinateurs portables, des GPU grand public et des smartphones.

Cette solution réalise pour la première fois le fine-tuning des modèles BitNet sur GPU mobile (incluant Adreno, Mali et Apple Bionic). Les tests montrent qu'un modèle de 125 M paramètres peut être affiné en environ 10 minutes, un modèle de 1 G en environ une heure, et même étendu jusqu'à 13 G paramètres sur smartphone.

De plus, ce cadre prend en charge des matérielles hétérogènes tels qu'Intel, AMD et Apple Silicon, et réalise pour la première fois un fine-tuning LoRA 1-bit sur des appareils non NVIDIA. En termes de performance, l'inférence des modèles BitNet sur GPU mobile est 2 à 11 fois plus rapide qu'avec le CPU, tout en réduisant la consommation de mémoire vidéo de jusqu'à 77,8 % par rapport aux modèles traditionnels en 16 bits.

Tether indique que cette technologie vise à réduire la dépendance aux ressources de calcul de haut niveau et aux infrastructures cloud, à promouvoir la décentralisation et la localisation de l'entraînement de l'IA, et à fournir une base pour de nouveaux scénarios d'utilisation tels que l'apprentissage fédéré.

Clause de non-responsabilité : les informations sur cette page peuvent avoir été obtenues auprès de tiers et ne reflètent pas nécessairement les points de vue ou opinions de KuCoin. Ce contenu est fourni à titre informatif uniquement, sans aucune représentation ou garantie d’aucune sorte, et ne doit pas être interprété comme un conseil en investissement. KuCoin ne sera pas responsable des erreurs ou omissions, ni des résultats résultant de l’utilisation de ces informations. Les investissements dans les actifs numériques peuvent être risqués. Veuillez évaluer soigneusement les risques d’un produit et votre tolérance au risque en fonction de votre propre situation financière. Pour plus d’informations, veuillez consulter nos conditions d’utilisation et divulgation des risques.