Tether lanza un marco de IA para entrenar modelos de miles de millones de parámetros en dispositivos móviles

iconChainthink
Compartir
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconResumen

expand icon
Tether anunció el 17 de marzo de 2026 el lanzamiento de un marco de ajuste fine LoRA multiplataforma para Microsoft BitNet (LLM de 1 bit) en su plataforma QVAC Fabric AI, marcando una actualización clave en las noticias en cadena. El marco admite el entrenamiento de modelos de miles de millones de parámetros en hardware de consumo como portátiles, smartphones y GPU. Funciona en chips Intel, AMD, Apple Silicon, Adreno, Mali y Bionic. Un modelo de 125 millones de parámetros se entrenó en 10 minutos en un Samsung S25, mientras que un modelo de 10 mil millones tardó 1 hora y 18 minutos. BitNet funciona de 2 a 11 veces más rápido en GPU móviles que en CPU y utiliza un 77,8% menos de memoria que los modelos de 16 bits. Esta noticia de IA + cripto destaca los objetivos de entrenamiento local y IA descentralizada.

ChainThink mensaje, 17 de marzo, el emisor de stablecoins Tether anunció que su plataforma de IA QVAC Fabric lanzó el primer marco LoRA multiplataforma del mundo para Microsoft BitNet (LLM de 1 bit), permitiendo que modelos de lenguaje de mil millones de parámetros se entrenen e infieran en hardware común, incluyendo laptops, GPU de consumo y smartphones.


La empresa oficial indica que este marco reduce significativamente el umbral de memoria gráfica y potencia de cálculo requeridos para entrenar modelos de IA, y es compatible con Intel, AMD, Apple Silicon y múltiples GPU móviles (como Adreno, Mali y Apple Bionic).


En las pruebas, un modelo BitNet de aproximadamente 125 millones de parámetros se ajustó finamente en aproximadamente 10 minutos en el Samsung S25; un modelo de 1 mil millones de parámetros se ajustó finamente en aproximadamente 1 hora y 18 minutos en el Samsung S25 y en aproximadamente 1 hora y 45 minutos en el iPhone 16, y el equipo incluso logró ajustar finamente un modelo de 13 mil millones de parámetros en el iPhone 16.


En términos de rendimiento, la velocidad de inferencia del modelo BitNet en GPU móviles puede ser de 2 a 11 veces más rápida que en CPU. Además, las pruebas muestran que BitNet-1B puede reducir hasta un 77.8% el uso de memoria GPU en tareas de inferencia y fine-tuning en comparación con modelos de 16 bits.


Paolo Ardoino indicó que esta tecnología tiene como objetivo reducir la dependencia de la nube computacional a gran escala y hardware AI dedicado, permitiendo que el entrenamiento de modelos de IA se realice en dispositivos locales y proporcionando una base para nuevos modelos como la IA descentralizada y el aprendizaje federado.

Descargo de responsabilidad: La información contenida en esta página puede proceder de terceros y no refleja necesariamente los puntos de vista u opiniones de KuCoin. Este contenido se proporciona solo con fines informativos generales, sin ninguna representación o garantía de ningún tipo, y tampoco debe interpretarse como asesoramiento financiero o de inversión. KuCoin no es responsable de ningún error u omisión, ni de ningún resultado derivado del uso de esta información. Las inversiones en activos digitales pueden ser arriesgadas. Evalúa con cuidado los riesgos de un producto y tu tolerancia al riesgo en función de tus propias circunstancias financieras. Para más información, consulta nuestras Condiciones de uso y la Declaración de riesgos.