Tether ra mắt khung AI để huấn luyện các mô hình hàng tỷ tham số trên thiết bị di động

iconChainthink
Chia sẻ
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconTóm tắt

expand icon
Tether đã công bố vào ngày 17 tháng 3 năm 2026 việc ra mắt khung tinh chỉnh LoRA đa nền tảng cho Microsoft BitNet (1-bit LLM) trên nền tảng QVAC Fabric AI, đánh dấu một cập nhật quan trọng trong tin tức trên chuỗi. Khung này hỗ trợ huấn luyện các mô hình hàng tỷ tham số trên phần cứng người dùng như laptop, điện thoại thông minh và GPU. Nó hoạt động trên các chip Intel, AMD, Apple Silicon, Adreno, Mali và Bionic. Một mô hình 125 triệu tham số được huấn luyện trong 10 phút trên Samsung S25, trong khi mô hình 10 tỷ tham số mất 1 giờ 18 phút. BitNet chạy nhanh hơn 2 đến 11 lần trên GPU di động so với CPU và sử dụng ít hơn 77,8% bộ nhớ so với các mô hình 16-bit. Tin tức AI + tiền điện tử này nhấn mạnh mục tiêu huấn luyện tại chỗ và AI phi tập trung.

ChainThink thông báo, ngày 17 tháng 3, nhà phát hành stablecoin Tether tuyên bố rằng nền tảng AI QVAC Fabric của họ đã ra mắt khung vi điều chỉnh LoRA đa nền tảng đầu tiên trên thế giới dành cho Microsoft BitNet (1-bit LLM), cho phép các mô hình ngôn ngữ với hàng tỷ tham số được huấn luyện và suy luận trên phần cứng thông thường, bao gồm laptop, GPU tiêu dùng và điện thoại thông minh.


Công ty cho biết khung này đã làm giảm đáng kể yêu cầu về bộ nhớ đồ họa và sức mạnh tính toán cần thiết để huấn luyện mô hình AI, hỗ trợ Intel, AMD, Apple Silicon và nhiều GPU di động khác như Adreno, Mali, Apple Bionic.


Trong thử nghiệm, mô hình BitNet với khoảng 125 triệu tham số có thể được tinh chỉnh trong khoảng 10 phút trên Samsung S25; mô hình 1 tỷ tham số được tinh chỉnh trong khoảng 1 giờ 18 phút trên Samsung S25 và khoảng 1 giờ 45 phút trên iPhone 16, nhóm thậm chí đã thành công trong việc tinh chỉnh mô hình 13 tỷ tham số trên iPhone 16.


Về hiệu năng, tốc độ suy luận của mô hình BitNet trên GPU di động có thể nhanh hơn CPU từ 2 đến 11 lần. Đồng thời, các bài kiểm tra cho thấy BitNet-1B giảm tối đa 77,8% dung lượng VRAM so với các mô hình 16-bit trong các nhiệm vụ suy luận và tinh chỉnh.


Paolo Ardoino cho biết, công nghệ này nhằm giảm sự phụ thuộc vào điện toán đám mây quy mô lớn và phần cứng AI chuyên dụng, cho phép huấn luyện mô hình AI trên thiết bị cục bộ và cung cấp nền tảng cho các mô hình mới như AI phi tập trung và học liên kết.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể được lấy từ bên thứ ba và không nhất thiết phản ánh quan điểm hoặc ý kiến của KuCoin. Nội dung này chỉ được cung cấp cho mục đích thông tin chung, không có bất kỳ đại diện hay bảo đảm nào dưới bất kỳ hình thức nào và cũng không được hiểu là lời khuyên tài chính hay đầu tư. KuCoin sẽ không chịu trách nhiệm về bất kỳ sai sót hoặc thiếu sót nào hoặc về bất kỳ kết quả nào phát sinh từ việc sử dụng thông tin này. Việc đầu tư vào tài sản kỹ thuật số có thể tiềm ẩn nhiều rủi ro. Vui lòng đánh giá cẩn thận rủi ro của sản phẩm và khả năng chấp nhận rủi ro của bạn dựa trên hoàn cảnh tài chính của chính bạn. Để biết thêm thông tin, vui lòng tham khảo Điều khoản sử dụngTiết lộ rủi ro của chúng tôi.