Tether lança framework de IA para treinar modelos de bilhões de parâmetros em dispositivos móveis

iconChainthink
Compartilhar
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconResumo

expand icon
A Tether anunciou em 17 de março de 2026 o lançamento de um framework de fine-tuning LoRA multiplataforma para o Microsoft BitNet (LLM de 1-bit) em sua plataforma QVAC Fabric AI, marcando uma atualização importante nas notícias on-chain. O framework suporta o treinamento de modelos de bilhões de parâmetros em hardware de consumo, como laptops, smartphones e GPUs. Funciona em chips Intel, AMD, Apple Silicon, Adreno, Mali e Bionic. Um modelo de 125 milhões de parâmetros foi treinado em 10 minutos em um Samsung S25, enquanto um modelo de 10 bilhões levou 1 hora e 18 minutos. O BitNet opera de 2 a 11 vezes mais rápido em GPUs móveis do que em CPUs e usa 77,8% menos memória do que modelos de 16 bits. Essa notícia de IA + cripto destaca os objetivos de treinamento local e IA descentralizada.

ChainThink mensagem, 17 de março, o emissor de stablecoin Tether anunciou o lançamento do primeiro framework LoRA multiplataforma do mundo para o Microsoft BitNet (LLM de 1-bit) em sua plataforma de IA, QVAC Fabric, permitindo que modelos de linguagem de bilhões de parâmetros sejam treinados e inferidos em hardware comum, incluindo notebooks, GPUs de consumo e smartphones.


O oficial afirmou que o framework reduziu significativamente o requisito de memória gráfica e poder de processamento necessário para treinar modelos de IA, suportando Intel, AMD, Apple Silicon e diversos GPUs móveis (como Adreno, Mali e Apple Bionic).


Durante os testes, um modelo BitNet com cerca de 125 milhões de parâmetros foi ajustado finamente em cerca de 10 minutos no Samsung S25; um modelo de 1 bilhão de parâmetros levou cerca de 1 hora e 18 minutos no Samsung S25 e cerca de 1 hora e 45 minutos no iPhone 16, e a equipe até conseguiu ajustar finamente um modelo de 13 bilhões de parâmetros no iPhone 16.


Em termos de desempenho, a velocidade de inferência do modelo BitNet em GPU móvel pode ser de 2 a 11 vezes maior do que em CPU. Ao mesmo tempo, os testes mostraram que o BitNet-1B pode reduzir o uso de memória GPU em até 77,8% em comparação com modelos de 16 bits em tarefas de inferência e fine-tuning.


Paolo Ardoino afirmou que esta tecnologia tem como objetivo reduzir a dependência de grandes nuvens de computação e hardware AI dedicado, permitindo que o treinamento de modelos de IA seja realizado em dispositivos locais e fornecendo a base para novos modelos como IA descentralizada e aprendizado federado.

Aviso legal: as informações nesta página podem ter sido obtidas de terceiros e não refletem necessariamente os pontos de vista ou opiniões da KuCoin. Este conteúdo é fornecido apenas para fins informativos gerais, sem qualquer representação ou garantia de qualquer tipo, nem deve ser interpretado como aconselhamento financeiro ou de investimento. A KuCoin não é responsável por quaisquer erros ou omissões, ou por quaisquer resultados do uso destas informações. Os investimentos em ativos digitais podem ser arriscados. Avalie cuidadosamente os riscos de um produto e a sua tolerância ao risco com base nas suas próprias circunstâncias financeiras. Para mais informações, consulte nossos termos de uso e divulgação de risco.