ChainThink thông báo, ngày 17 tháng 3, nhà phát hành stablecoin Tether tuyên bố rằng nền tảng AI QVAC Fabric của họ đã ra mắt khung vi điều chỉnh LoRA đa nền tảng đầu tiên trên thế giới dành cho Microsoft BitNet (1-bit LLM), cho phép các mô hình ngôn ngữ với hàng tỷ tham số được huấn luyện và suy luận trên phần cứng thông thường, bao gồm laptop, GPU tiêu dùng và điện thoại thông minh.
Công ty cho biết khung này đã làm giảm đáng kể yêu cầu về bộ nhớ đồ họa và sức mạnh tính toán cần thiết để huấn luyện mô hình AI, hỗ trợ Intel, AMD, Apple Silicon và nhiều GPU di động khác như Adreno, Mali, Apple Bionic.
Trong thử nghiệm, mô hình BitNet với khoảng 125 triệu tham số có thể được tinh chỉnh trong khoảng 10 phút trên Samsung S25; mô hình 1 tỷ tham số được tinh chỉnh trong khoảng 1 giờ 18 phút trên Samsung S25 và khoảng 1 giờ 45 phút trên iPhone 16, nhóm thậm chí đã thành công trong việc tinh chỉnh mô hình 13 tỷ tham số trên iPhone 16.
Về hiệu năng, tốc độ suy luận của mô hình BitNet trên GPU di động có thể nhanh hơn CPU từ 2 đến 11 lần. Đồng thời, các bài kiểm tra cho thấy BitNet-1B giảm tối đa 77,8% dung lượng VRAM so với các mô hình 16-bit trong các nhiệm vụ suy luận và tinh chỉnh.
Paolo Ardoino cho biết, công nghệ này nhằm giảm sự phụ thuộc vào điện toán đám mây quy mô lớn và phần cứng AI chuyên dụng, cho phép huấn luyện mô hình AI trên thiết bị cục bộ và cung cấp nền tảng cho các mô hình mới như AI phi tập trung và học liên kết.
