ChainThink mensaje, 17 de marzo, el emisor de stablecoins Tether anunció que su plataforma de IA QVAC Fabric lanzó el primer marco LoRA multiplataforma del mundo para Microsoft BitNet (LLM de 1 bit), permitiendo que modelos de lenguaje de mil millones de parámetros se entrenen e infieran en hardware común, incluyendo laptops, GPU de consumo y smartphones.
La empresa oficial indica que este marco reduce significativamente el umbral de memoria gráfica y potencia de cálculo requeridos para entrenar modelos de IA, y es compatible con Intel, AMD, Apple Silicon y múltiples GPU móviles (como Adreno, Mali y Apple Bionic).
En las pruebas, un modelo BitNet de aproximadamente 125 millones de parámetros se ajustó finamente en aproximadamente 10 minutos en el Samsung S25; un modelo de 1 mil millones de parámetros se ajustó finamente en aproximadamente 1 hora y 18 minutos en el Samsung S25 y en aproximadamente 1 hora y 45 minutos en el iPhone 16, y el equipo incluso logró ajustar finamente un modelo de 13 mil millones de parámetros en el iPhone 16.
En términos de rendimiento, la velocidad de inferencia del modelo BitNet en GPU móviles puede ser de 2 a 11 veces más rápida que en CPU. Además, las pruebas muestran que BitNet-1B puede reducir hasta un 77.8% el uso de memoria GPU en tareas de inferencia y fine-tuning en comparación con modelos de 16 bits.
Paolo Ardoino indicó que esta tecnología tiene como objetivo reducir la dependencia de la nube computacional a gran escala y hardware AI dedicado, permitiendo que el entrenamiento de modelos de IA se realice en dispositivos locales y proporcionando una base para nuevos modelos como la IA descentralizada y el aprendizaje federado.
