Tether, Milyar Parametreli Modelleri Mobil Cihazlarda Eğitmek İçin Yapay Zeka Çerçevesini Başlattı

iconChainthink
Paylaş
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconÖzet

expand icon
Tether, 17 Mart 2026 tarihinde, Microsoft BitNet (1-bit LLM) için QVAC Fabric AI platformunda çoklu platformlu bir LoRA ince ayar çerçevesi yayınladı ve bu, zincir üzerindeki haberlerde önemli bir güncelleme olarak işaretlendi. Çerçeve, dizüstü bilgisayarlar, akıllı telefonlar ve GPU'lar gibi tüketici donanımlarında milyarlarca parametreli modellerin eğitilmesini destekliyor. Intel, AMD, Apple Silicon, Adreno, Mali ve Bionic çiplerinde çalışıyor. Samsung S25'te 125 milyon parametreli bir model 10 dakikada eğitildi, 10 milyar parametreli bir model ise 1 saat 18 dakikada tamamlandı. BitNet, mobil GPU'larda CPU'lara göre 2 ila 11 kat daha hızlı çalışıyor ve 16-bit modellere göre %77,8 daha az bellek kullanıyor. Bu AI + kripto haberi, yerel eğitim ve merkeziyetsiz AI hedeflerini vurguluyor.

ChainThink mesajı, 17 Mart'ta stabil para yayıncısı Tether, Microsoft BitNet (1-bit LLM) için küresel ilk çapraz platform LoRA ince ayar çerçevesi olan QVAC Fabric'ı tanıttı; bu çerçeve, milyarlarca parametreli dil modellerinin normal donanımlarda, yani dizüstü bilgisayarlar, tüketici seviyesi GPU'lar ve akıllı telefonlarda eğitilmesini ve çıkarım yapılmasını sağlıyor.


Resmi açıklama göre, bu çerçeve, AI modeli eğitimi için gerekli olan video belleği ve hesaplama gücü engelini önemli ölçüde düşürerek Intel, AMD, Apple Silicon ve çeşitli mobil GPU'ları (Adreno, Mali, Apple Bionic gibi) desteklemektedir.


Test sırasında, yaklaşık 1,25 milyar parametreli BitNet modeli Samsung S25'te yaklaşık 10 dakikada ince ayarlandı; 10 milyar parametreli model Samsung S25'te yaklaşık 1 saat 18 dakikada, iPhone 16'da ise yaklaşık 1 saat 45 dakikada ince ayarlandı; ekip, iPhone 16'da 130 milyar parametreli modeli ince ayarlamayı başardı.


Performans açısından, BitNet modelleri mobil GPU'da CPU'ya göre 2 ila 11 kat daha hızlı çıkarım yapar. Aynı zamanda testler, BitNet-1B'nin çıkarım ve ince ayar görevlerinde 16-bit modellere kıyasla bellek kullanımını en fazla %77,8 oranında azalttığını göstermiştir.


Paolo Ardoino, bu teknolojinin büyük bulut hesaplama ve özel AI donanımına olan bağımlılığı azaltmayı, AI model eğitiminin yerel cihazlarda tamamlanmasını sağlamayı ve merkeziyetsiz AI ile federasyonlu öğrenme gibi yeni modeller için temel oluşturmayı amaçladığını belirtti.

Yasal Uyarı: Bu sayfadaki bilgiler üçüncü şahıslardan alınmış olabilir ve KuCoin'in görüşlerini veya fikirlerini yansıtmayabilir. Bu içerik, herhangi bir beyan veya garanti olmaksızın yalnızca genel bilgilendirme amacıyla sağlanmıştır ve finansal veya yatırım tavsiyesi olarak yorumlanamaz. KuCoin, herhangi bir hata veya eksiklikten veya bu bilgilerin kullanımından kaynaklanan sonuçtan sorumlu değildir. Dijital varlıklara yapılan yatırımlar riskli olabilir. Lütfen bir ürünün risklerini ve risk toleransınızı kendi finansal koşullarınıza göre dikkatlice değerlendirin. Daha fazla bilgi için lütfen Kullanım Koşullarımıza ve Risk Açıklamamıza bakınız.