Odaily Planet Daily informa que, según un anuncio oficial, Tether ha lanzado el marco de ajuste fino BitNet LoRA en QVAC Fabric, optimizando el entrenamiento y la inferencia para Microsoft BitNet (LLM de 1 bit). Este marco reduce significativamente la demanda de potencia de cálculo y memoria, permitiendo que modelos de mil millones de parámetros se entrenen y ajusten finamente en laptops, GPU de consumo y smartphones.
Este方案首次实现BitNet模型在移动端GPU(包括Adreno、Mali y Apple Bionic)上的微调,测试显示,125M参数模型可在约10分钟内完成微调,1B模型约1小时级别完成,甚至在手机端可扩展至13B参数模型。
Además, este marco admite hardware heterogéneo como Intel, AMD y Apple Silicon, y logra por primera vez el ajuste LoRA de LLM de 1-bit en dispositivos no NVIDIA. En términos de rendimiento, la inferencia de los modelos BitNet en GPU móviles es de 2 a 11 veces más rápida que en CPU, y reduce el uso de memoria de video hasta un 77.8% en comparación con los modelos tradicionales de 16-bit.
Tether indica que esta tecnología tiene el potencial de romper la dependencia de la potencia de cómputo de gama alta y la infraestructura en la nube, impulsando el entrenamiento de IA hacia la descentralización y la localización, y proporcionando una base para nuevas aplicaciones como el aprendizaje federado.
