ChainThink mensagem, 17 de março, o emissor de stablecoin Tether anunciou o lançamento do primeiro framework LoRA multiplataforma do mundo para o Microsoft BitNet (LLM de 1-bit) em sua plataforma de IA, QVAC Fabric, permitindo que modelos de linguagem de bilhões de parâmetros sejam treinados e inferidos em hardware comum, incluindo notebooks, GPUs de consumo e smartphones.
O oficial afirmou que o framework reduziu significativamente o requisito de memória gráfica e poder de processamento necessário para treinar modelos de IA, suportando Intel, AMD, Apple Silicon e diversos GPUs móveis (como Adreno, Mali e Apple Bionic).
Durante os testes, um modelo BitNet com cerca de 125 milhões de parâmetros foi ajustado finamente em cerca de 10 minutos no Samsung S25; um modelo de 1 bilhão de parâmetros levou cerca de 1 hora e 18 minutos no Samsung S25 e cerca de 1 hora e 45 minutos no iPhone 16, e a equipe até conseguiu ajustar finamente um modelo de 13 bilhões de parâmetros no iPhone 16.
Em termos de desempenho, a velocidade de inferência do modelo BitNet em GPU móvel pode ser de 2 a 11 vezes maior do que em CPU. Ao mesmo tempo, os testes mostraram que o BitNet-1B pode reduzir o uso de memória GPU em até 77,8% em comparação com modelos de 16 bits em tarefas de inferência e fine-tuning.
Paolo Ardoino afirmou que esta tecnologia tem como objetivo reduzir a dependência de grandes nuvens de computação e hardware AI dedicado, permitindo que o treinamento de modelos de IA seja realizado em dispositivos locais e fornecendo a base para novos modelos como IA descentralizada e aprendizado federado.
