Độ gradient: Cơ sở hạ tầng đào tạo AI phi tập trung trên Bittensor

icon MarsBit
Chia sẻ
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconTóm tắt

expand icon
Gradients, một mạng con phân tán để đào tạo AI (SN56) trên Bittensor, giới thiệu cách tiếp cận dựa trên thị trường để đào tạo mô hình AI. Người dùng đăng nhiệm vụ, các thợ mỏ cạnh tranh, và các người xác thực kiểm tra kết quả. Nền tảng sử dụng AutoML và tính toán phân tán để giảm rào cản AI và tăng hiệu quả. Là một lớp quan trọng trong hệ sinh thái Bittensor, Gradients hướng tới trở thành trung tâm đào tạo AI phân tán lớn. Phát triển này mang đến tin tức AI + crypto mới và làm nổi bật các cơ hội tin tức trên chuỗi mới.

Nguồn: Viện Nghiên cứu CoinW

Tóm tắt

Gradients là một subnet phi tập trung để huấn luyện AI được xây dựng trên Bittensor (SN56), với cốt lõi là chuyển đổi quy trình huấn luyện mô hình từ một quy trình kỹ thuật phức tạp thành một quá trình hợp tác mạng được điều khiển bởi thị trường thông qua các cơ chế như “phát hành nhiệm vụ, thợ mỏ cạnh tranh, xác minh và lọc”. Về mặt kiến trúc, nó kết hợp AutoML với năng lực tính toán phân tán để tạo ra một thị trường huấn luyện lấy cơ chế khuyến khích làm trung tâm, không chỉ hạ thấp rào cản sử dụng AI mà còn nâng cao hiệu quả sử dụng năng lực tính toán. Về mặt sinh thái và dữ liệu, Gradients đã hoàn thành việc xây dựng mạng cơ sở, nhưng trọng số khuyến khích và dòng vốn đầu vào hiện vẫn còn hạn chế. Gradients lấp đầy cơ sở hạ tầng huấn luyện trong hệ sinh thái TAO và khám phá mô hình mới “tối ưu hóa AI do thị trường dẫn dắt”, có tiềm năng lâu dài trở thành lớp入口 quan trọng cho huấn luyện AI phi tập trung.

1. Bắt đầu từ Web2 AutoML: Hiện trạng và giới hạn của việc huấn luyện AI

1.1 AutoML là gì

Theo quan niệm truyền thống, việc huấn luyện một mô hình AI là một nhiệm vụ có rào cản cao, đòi hỏi các kỹ sư phải xử lý dữ liệu, chọn mô hình, điều chỉnh thông số lặp đi lặp lại và đánh giá hiệu quả — toàn bộ quy trình phức tạp và tốn thời gian. Sự ra đời của AutoML (học máy tự động) về bản chất là “tự động hóa” các bước rắc rối này. Bạn có thể hiểu nó như một “công cụ tự động tạo mô hình”: người dùng chỉ cần cung cấp dữ liệu và thông báo cho hệ thống mục tiêu mong muốn, chẳng hạn như phân loại, dự đoán hoặc nhận diện, còn lại các quy trình bao gồm chọn mô hình, điều chỉnh thông số, huấn luyện và tối ưu hóa đều được hệ thống tự động hoàn thành. Điều này giúp AI dần trở thành một khả năng mà không chỉ các kỹ sư chuyên nghiệp mà cả các nhà phát triển thông thường và doanh nghiệp đều có thể sử dụng — là bước quan trọng đưa AI đến với sự phổ biến.

1.2 Những hạn chế cốt lõi của AutoML truyền thống

Hiện nay, các triển khai chính của AutoML tập trung trên các nền tảng của nhà cung cấp đám mây, chẳng hạn như Google Vertex AI và AWS SageMaker, những nền tảng này cung cấp “AI Training as a Service”. Mặc dù AutoML Web2 đã làm giảm đáng kể rào cản khi sử dụng AI, nhưng mô hình nền tảng của nó vẫn tồn tại những hạn chế rõ rệt. Đầu tiên là vấn đề tập trung hóa: năng lực tính toán, định giá và quy tắc đều do nền tảng kiểm soát, người dùng phụ thuộc mạnh vào một nhà cung cấp duy nhất và thiếu khả năng đàm phán. Thứ hai là chi phí cao và không minh bạch: tài nguyên GPU cần thiết cho việc huấn luyện AI chủ yếu nằm trong tay các nhà cung cấp đám mây, cơ chế giá cả thiếu cạnh tranh thị trường. Quan trọng hơn, hiệu quả tối ưu hóa có giới hạn. AutoML truyền thống về bản chất vẫn là “một hệ thống đang giúp bạn tìm ra giải pháp tối ưu”, bất kể hệ thống này phức tạp đến đâu, về cơ bản nó vẫn chỉ là tối ưu hóa theo một hướng công nghệ duy nhất. Không gian khám phá của nó bị giới hạn và khó có thể đồng thời thử nghiệm nhiều cách tiếp cận hoàn toàn khác biệt. Do đó, việc huấn luyện AI hiện tại trên Web2 là một “hệ thống đóng kín”, nơi huấn luyện, tối ưu hóa và điều phối tài nguyên đều diễn ra trong một môi trường do một nền tảng duy nhất kiểm soát. Mô hình này tuy hiệu quả, nhưng khi nhu cầu tăng lên, các giới hạn của nó đang dần lộ rõ.

2. Gradients: Sử dụng "mạng" để tái cấu trúc đào tạo AI

2.1 Gradients là gì: Một nền tảng AutoML phi tập trung

Trong chương trước, chúng ta đã đề cập đến vấn đề cốt lõi của AutoML Web2 truyền thống là “hệ thống đóng”, nơi việc huấn luyện mô hình phụ thuộc vào nền tảng, đường tối ưu hóa bị hạn chế và dòng chảy tài nguyên bị ràng buộc. Gradients chính là sự tái cấu trúc mô hình này. Gradients bắt nguồn từ cộng đồng kỹ sư phi tập trung do WanderingWeights khởi xướng, được xây dựng trên mạng Bittensor và là subnet AI huấn luyện chạy trên Subnet 56. Khác với các nền tảng truyền thống, nó không cung cấp dịch vụ tập trung, mà chia nhỏ quá trình huấn luyện và giao cho một mạng mở thực hiện. Người dùng chỉ cần xác định mục tiêu nhiệm vụ, chẳng hạn như loại mô hình và dữ liệu, còn các quy trình còn lại bao gồm thực thi huấn luyện, tối ưu tham số và lọc kết quả đều được mạng tự động hoàn thành. Trong mô hình này, việc huấn luyện AI được trừu tượng hóa từ một quy trình kỹ thuật phức tạp thành quy trình đơn giản “gửi yêu cầu, nhận kết quả”, trở nên gần giống một khả năng phổ dụng hơn là một công việc kỹ thuật có rào cản chuyên môn rất cao.

2.2 Từ hệ thống đóng sang hợp tác mở: Gradients giải quyết vấn đề gì

Sự thay đổi cốt lõi của Gradients nằm ở việc chuyển đổi quá trình huấn luyện vốn bị giới hạn trong một nền tảng đơn lẻ thành một quy trình mạng mở và hợp tác. Nhiệm vụ huấn luyện không còn do một hệ thống duy nhất thực hiện, mà được phân phối cho nhiều người tham gia cùng thử nghiệm song song, sau đó lọc ra kết quả tối ưu nhất thông qua cơ chế đánh giá thống nhất. Cấu trúc này trước hết giảm sự phụ thuộc vào các nhà cung cấp tập trung, giúp huấn luyện dựa trên năng lực tính toán phân tán; đồng thời, các tài nguyên GPU phân tán được tích hợp vào cùng một mạng lưới, tạo ra cách phân bổ nguồn lực gần với cơ chế thị trường hơn thông qua cạnh tranh. Quan trọng hơn, việc tối ưu hóa mô hình không còn bị giới hạn trong một con đường duy nhất, mà liên tục tiến gần đến giải pháp tối ưu hơn thông qua việc khám phá song song nhiều phương pháp khác nhau, từ đó nâng cao giới hạn tối ưu tổng thể.

2.3 Sự thay đổi bản chất: Từ công cụ thành “thị trường huấn luyện”

Trong AutoML truyền thống, nền tảng giống như một công cụ, hỗ trợ người dùng tìm ra giải pháp tối ưu thông qua các thuật toán nội bộ. Trong khi đó, tại Gradients, quá trình này gần giống một “thị trường” hoạt động liên tục: người dùng đăng tải nhu cầu, các bên tham gia khác nhau cạnh tranh xung quanh cùng một nhiệm vụ và lọc ra kết quả thông qua cơ chế đánh giá. Nhờ đó, hiệu suất mô hình không còn phụ thuộc vào năng lực của một hệ thống duy nhất, mà đến từ sự cạnh tranh và lặp lại liên tục giữa nhiều bên tham gia. AutoML cũng chuyển từ một vấn đề tối ưu kỹ thuật tương đối đóng kín thành một quá trình động được thúc đẩy bởi động lực, giúp khả năng tối ưu có thể mở rộng liên tục khi số lượng người tham gia tăng lên. Sự thay đổi này khiến việc huấn luyện AI bắt đầu mang đặc điểm tự tiến hóa giống như một thị trường.

2.4 Vai trò trong hệ sinh thái TAO: Lớp hạ tầng đào tạo AI

Trong hệ thống subnet của Bittensor, các subnet khác nhau đảm nhận các chức năng khác nhau như suy luận, xử lý dữ liệu và huấn luyện, trong khi Gradients nằm ở lớp huấn luyện. Nó chịu trách nhiệm chuyển đổi sức mạnh tính toán phân tán thành các mô hình thực tế, đồng thời thông qua cơ chế phân phối và đánh giá nhiệm vụ, giúp liên tục điều phối và tối ưu hóa các nguồn lực này. Đồng thời, nó kết nối nguồn cung sức mạnh tính toán với nhu cầu mô hình, biến quá trình huấn luyện từ một quy trình tiêu thụ tài nguyên đơn thuần thành một quá trình hợp tác mạng có thể tổ chức và tối ưu hóa. Trong hệ thống này, Gradients giống như một khâu trung tâm, chuyển đổi tài nguyên phân tán thành năng lực AI có thể sử dụng và hỗ trợ sự phát triển của các ứng dụng cấp trên.

3. Kiến trúc cốt lõi: Việc huấn luyện AI được thực hiện như thế nào trên mạng

Trong chương trước, chúng ta đã đề cập rằng Gradients đã chuyển đổi việc huấn luyện AI từ “hoàn thành trong nền tảng” sang “thực hiện thông qua sự hợp tác của mạng lưới”. Vậy, mạng lưới này cụ thể hoạt động như thế nào? Trọng tâm của chương này là phân tích rõ ràng quy trình này theo cách trực quan hơn.

3.1 Huấn luyện phân tán: Một tác vụ được “nhiều người thực hiện” như thế nào

Hãy tưởng tượng Gradients như một “mạng lưới hợp tác huấn luyện” chạy liên tục. Khi người dùng gửi một nhiệm vụ huấn luyện, nhiệm vụ này không được giao cho một hệ thống duy nhất thực hiện, mà sẽ được phân phối đồng thời đến nhiều người tham gia trong mạng lưới. Những người tham gia này sẽ dựa trên cùng một bộ dữ liệu và mục tiêu, thử nghiệm các phương pháp huấn luyện khác nhau và nộp kết quả trong thời gian quy định. Sau đó, hệ thống sẽ đánh giá đồng nhất các kết quả này và chọn ra phương án hiệu quả nhất. Cuối cùng, những kết quả xuất sắc hơn sẽ nhận phần thưởng, trong khi các phương án khác sẽ bị loại bỏ. Từ góc nhìn của người dùng, quá trình này chỉ cần khởi tạo một nhiệm vụ, tương đương với việc đồng thời “gọi” nhiều cách tiếp cận tối ưu khác nhau và tự động chọn ra giải pháp tối ưu nhất. Điểm then chốt của cách thức này không nằm ở sức mạnh của từng nút riêng lẻ, mà ở việc kết hợp song song nhiều nỗ lực cùng với việc lọc tự động, giúp kết quả liên tục tiến gần đến giải pháp tối ưu.

Trong mạng này, có ba nhóm người tham gia chính: người dùng, thợ mỏ và người xác minh. Người dùng chịu trách nhiệm đưa ra nhu cầu huấn luyện; thợ mỏ cung cấp sức mạnh tính toán và thử nghiệm các phương pháp huấn luyện khác nhau; người xác minh chịu trách nhiệm đánh giá kết quả và lựa chọn mô hình tối ưu nhất. Sự phân công này giúp quá trình huấn luyện diễn ra liên tục và liên tục lọc ra các giải pháp tốt hơn. Nhìn chung, nó tạo thành một mạng lưới hợp tác được thúc đẩy bởi “nhu cầu, cung cấp, đánh giá”.

3.2 AutoML do thị trường thúc đẩy

Trong cơ chế phân tích ở phần trước, có thể thấy Gradients không đơn giản là mang AutoML lên chuỗi, mà thông qua việc引入 nhiều bên tham gia và cơ chế khuyến khích, đã thay đổi logic nền tảng của quá trình tối ưu hóa mô hình. AutoML truyền thống phụ thuộc vào một hệ thống duy nhất để tìm kiếm giải pháp tối ưu trong các đường dẫn hạn chế, trong khi tại Gradients, quá trình này được mở rộng đến toàn bộ mạng lưới: các bên tham gia khác nhau liên tục thử nghiệm các phương pháp khác nhau cho cùng một nhiệm vụ và liên tục sàng lọc, lặp lại thông qua đánh giá thống nhất. Điều này khiến việc tối ưu hóa mô hình không còn là một quá trình tính toán một lần, mà trở thành một quá trình động có thể liên tục phát triển. Trong cơ chế này, các kết quả hiệu suất tốt hơn sẽ nhận được lợi nhuận cao hơn, từ đó liên tục thu hút các bên tham gia cải thiện chiến lược và thúc đẩy hiệu quả tổng thể không ngừng được nâng cao.

4. Cơ chế khuyến khích và cạnh tranh: AI đào tạo tạo ra “vòng lặp tích cực” như thế nào

4.1 Cơ chế khuyến khích (được thúc đẩy bởi TAO): Từ hành vi đào tạo đến lợi nhuận

Chìa khóa để Gradients hoạt động lâu dài nằm ở cơ chế kích thích đằng sau nó, điều này phụ thuộc vào hệ thống kích thích bản địa do Bittensor cung cấp. Trong đó, TAO là token bản địa của mạng Bittensor, đóng vai trò là “phương tiện giá trị” trong toàn bộ mạng lưới: một mặt dùng để thưởng cho những người tham gia cung cấp sức mạnh tính toán và đóng góp mô hình, mặt khác cũng tham gia vào việc phân bổ trọng số của các subnets thông qua các hình thức như stake, ảnh hưởng đến cách thức tài nguyên được phân phối giữa các subnet khác nhau.

Chủ mạng Bittensor sẽ liên tục tạo ra phần thưởng Emission mới dưới dạng TAO (hiện tại lượng phù hợp hàng ngày khoảng 3600 TAO), và phân phối theo các quy tắc nhất định đến các subnet khác nhau. Số lượng TAO mỗi subnet nhận được phụ thuộc vào “hiệu suất” của nó trong toàn bộ mạng lưới, chẳng hạn như mức độ hoạt động, chất lượng đóng góp và tình hình hỗ trợ vốn, v.v. Đối với subnet mà Gradients đang tham gia, phần TAO được phân phối này sẽ được phân bổ lại bên trong cho các người tham gia. Cơ sở chính để phân phối là ai đóng góp mô hình tốt hơn, người đó sẽ nhận được nhiều lợi nhuận hơn.

Cụ thể, thợ mỏ gửi kết quả huấn luyện, người xác minh chịu trách nhiệm kiểm tra và chấm điểm các kết quả này. Hệ thống sẽ tính toán “trọng số đóng góp” của mỗi người tham gia dựa trên điểm số, sau đó phân phối phần thưởng theo trọng số này. Các mô hình hiệu suất tốt hơn (ví dụ: khả năng tổng quát hóa mạnh hơn, hiệu quả ổn định hơn) sẽ nhận được lợi nhuận cao hơn, trong khi những người xác minh có điểm số chính xác hơn và phản ánh đúng chất lượng thực tế cũng sẽ nhận được nhiều phần thưởng hơn. Thiết kế này giúp “làm tốt hơn” trực tiếp tương ứng với “kiếm nhiều hơn”, từ đó thúc đẩy người tham gia liên tục tối ưu hóa mô hình.

4.2 Cạnh tranh giữa các subnet: Không chỉ là cạnh tranh nội bộ, mà còn là xếp hạng bên ngoài

Ngoài sự cạnh tranh trong nội bộ subnet, Gradients còn đối mặt với “cạnh tranh ngang hàng” trong toàn bộ mạng Bittensor. Do việc phân phối TAO là động, các subnet khác nhau sẽ cạnh tranh để giành trọng số cao hơn. Chỉ những subnet liên tục tạo ra kết quả chất lượng cao và thu hút nhiều người tham gia hơn mới nhận được phần thưởng lớn hơn. Do đó, động lực của Gradients không chỉ phụ thuộc vào hiệu suất mô hình nội bộ, mà còn phụ thuộc vào khả năng cạnh tranh tương đối của nó trong toàn bộ hệ sinh thái. Toàn bộ hệ thống tạo thành một cơ chế phản hồi vòng lặp đa cấp: bên trong subnet có sự cạnh tranh giữa các mô hình; giữa các subnet có sự cạnh tranh về hiệu suất tổng thể. Cuối cùng, đầu tư vào sức mạnh tính toán, hiệu quả mô hình và lợi ích kinh tế được liên kết chặt chẽ với nhau, tạo thành một cơ chế phản hồi tích cực hoạt động liên tục.

4.3 Gradient 5.0: Từ cạnh tranh đến “cơ chế giải đấu”

Dựa trên nền tảng cạnh tranh liên tục ở giai đoạn đầu, Gradients đã phát triển thành một cơ chế có cấu trúc rõ ràng hơn, gọi là “đào tạo theo hình thức giải đấu”. Có thể hiểu đây là một cuộc thi định kỳ: mỗi vòng đào tạo sẽ thiết lập một khung thời gian, nhiều người tham gia cạnh tranh thực hiện cùng một nhiệm vụ, qua nhiều vòng loại bỏ dần để cuối cùng chọn ra phương án tối ưu nhất. Hình thức này nhấn mạnh sự so sánh theo từng giai đoạn và đánh giá tập trung. Một thay đổi quan trọng là các thợ mỏ không còn trực tiếp gửi kết quả đào tạo, mà gửi “phương pháp đào tạo” (mã nguồn), sau đó các nút xác minh sẽ thực thi thống nhất. Cách làm này không chỉ tăng tính công bằng, tránh nhiễu do môi trường tính toán khác nhau, mà còn bảo vệ tốt hơn tính riêng tư của dữ liệu và quá trình đào tạo. Ngoài ra, các phương án chiến thắng thường được lưu trữ lại như những phương pháp có thể tái sử dụng, giống như những “thực hành tốt nhất” được tích lũy liên tục. Về lâu dài, cơ chế này không chỉ nhằm lọc ra mô hình tối ưu, mà còn đang xây dựng một thư viện phương pháp đào tạo không ngừng tiến hóa.

5. Tình trạng hệ sinh thái

5.1 Cấu trúc người tham gia: Mạng lưới hợp tác bao gồm nhu cầu, cung cấp và đánh giá

Hệ sinh thái Gradients được tạo thành từ ba vai trò cốt lõi: người dùng (phía cầu), thợ mỏ (phía cung) và người xác minh (phía đánh giá). Người dùng chủ yếu bao gồm các nhà phát triển AI, doanh nghiệp vừa và nhỏ cùng các builder Web3 — những nhóm này thường có nền tảng kỹ thuật nhất định nhưng thiếu năng lực tính toán hoặc khả năng huấn luyện mô hình hoàn chỉnh, do đó họ có xu hướng sử dụng Gradients để xây dựng mô hình với chi phí thấp hơn. Thợ mỏ cung cấp năng lực GPU và tham gia cạnh tranh các nhiệm vụ huấn luyện, với động lực chính là thu về lợi ích TAO; người xác minh chịu trách nhiệm đánh giá và xếp hạng kết quả huấn luyện, đóng vai trò then chốt trong việc đảm bảo chất lượng mô hình và sự vận hành hiệu quả của cơ chế.

Từ góc độ phân tích người dùng chi tiết hơn, nhóm người dùng thực tế của Gradients thể hiện đặc điểm “bán phát triển”: khác với các phòng thí nghiệm AI hàng đầu, cũng không phải là người dùng phổ thông hoàn toàn không có nền tảng kỹ thuật, mà chủ yếu là các nhà phát triển có khả năng kỹ thuật và người dùng công nghệ Web3. Điều này cũng được phản ánh trong cấu trúc cộng đồng của nó: hiện tại, hệ sinh thái chủ yếu sử dụng tiếng Anh, với người dùng cốt lõi chủ yếu tập trung ở nhóm nhà phát triển Bắc Mỹ và châu Âu, đồng thời bao gồm một phần thợ khai thác Đông Nam Á và các nhà cung cấp tài nguyên GPU toàn cầu. Nhìn chung, nó gần giống một cộng đồng phát triển do công nghệ dẫn dắt.

5.2 Tình hình vận hành hệ sinh thái

Tính đến ngày 12 tháng 5, giá token alpha của Gradients khoảng 0,0255 TAO, với khoảng 4.890 địa chỉ nắm giữ, 243 thợ mỏ và 12 người xác thực, tỷ lệ phát hành là 1,61%. Đồng thời, trong hồ sơ thanh khoản, TAO chiếm 2,19% và Alpha chiếm 97,81%. Dựa trên giá và số lượng địa chỉ nắm giữ, Gradients đã có một nền tảng người dùng và sự quan tâm nhất định, nhưng nhìn chung vẫn đang ở giai đoạn đầu của quá trình lan truyền. So sánh với dự án hàng đầu trong hệ sinh thái TAO là Chutes, giá token alpha vào cùng ngày là 0,0877 TAO với 13.409 địa chỉ nắm giữ.

hình ảnh

Hình 1. Dữ liệu gradient.

Nguồn:https://bittensormarketcap.com/subnets/56

Tiếp theo là cơ chế kích thích Emission. Trong hệ sinh thái Bittensor, Emission chỉ trọng số phân bổ thực tế của subnet này trong tổng phần thưởng mới được tạo ra trên toàn mạng. Mạng Bittensor liên tục tạo ra các TAO mới và phân phối chúng theo trọng số đến các subnet khác nhau; mức 1,61% hiện tại của Gradients có nghĩa là nó chỉ nhận được một phần nhỏ trong tổng số phần thưởng mới của toàn mạng. Chỉ số này về bản chất phản ánh “kết quả bỏ phiếu” của thị trường thông qua dòng tiền (như staking) đối với các subnet khác nhau. Do đó, mức 1,61% thường cho thấy mức độ công nhận và dòng tiền đầu tư hiện tại còn tương đối hạn chế, đồng thời cũng cho thấy tiềm năng tăng trọng số trong tương lai. Về cấu trúc vốn (hồ thanh khoản), tỷ trọng TAO chỉ chiếm 2,19%, trong khi Alpha đạt tới 97,81%, cho thấy dòng tiền từ bên ngoài vẫn còn hạn chế và hiện tại chủ yếu do nguồn cung nội bộ subnet chi phối. Giá cả khá nhạy cảm với vốn mới; nếu có thêm nhiều TAO chảy vào, có thể tạo ra hiệu ứng khuếch đại rõ rệt hơn.

6. Bối cảnh cạnh tranh và ưu nhược điểm

6.1 Định vị ngành: Cơ sở hạ tầng đào tạo AutoML phi tập trung

Gradients đang hoạt động trong phân khúc “cơ sở hạ tầng đào tạo AI + AutoML phi tập trung”. Nó cố gắng giải phóng việc đào tạo mô hình khỏi các nền tảng tập trung và đạt được việc sử dụng tài nguyên và tối ưu hóa mô hình hiệu quả hơn thông qua cơ chế mạng lưới. Trong hệ sinh thái Web2, phân khúc này đã tương đối trưởng thành, với các đại diện tiêu biểu bao gồm Google Vertex AI và AWS SageMaker. Những nền tảng này cung cấp dịch vụ đào tạo và triển khai mô hình toàn diện cho các nhà phát triển thông qua điện toán đám mây, nhưng bản chất vẫn là kiến trúc tập trung. So với điều đó, sự khác biệt của Gradients không nằm ở “nhiều tính năng hơn”, mà ở logic nền tảng khác biệt: nó chuyển đổi việc đào tạo từ “dịch vụ nền tảng” thành “hợp tác mạng lưới”, đồng thời sử dụng cơ chế cạnh tranh để lựa chọn kết quả tối ưu, giúp nó trở nên gần giống một hệ thống đào tạo vận hành theo cơ chế thị trường.

6.2 So sánh ngang: Sự khác biệt giữa Web2 và Web3 AutoML

Từ góc độ vĩ mô hơn, sự khác biệt giữa Web2 và Web3 trong hướng AutoML về bản chất là sự so sánh giữa hai mô hình khác nhau. Mô hình Web2 nhấn mạnh hiệu suất và tính ổn định, thông qua việc tập trung tài nguyên và tối ưu hóa kỹ thuật để cung cấp trải nghiệm dịch vụ kiểm soát được và chín muồi; trong khi mô hình Web3 lại chú trọng hơn vào tính mở và cơ chế khuyến khích, thông qua việc thúc đẩy sự tham gia của nhiều bên, giúp tối ưu hóa mô hình liên tục phát triển thông qua cạnh tranh. Cụ thể, AutoML của Web2 giống như “một công cụ mạnh mẽ”, người dùng giao nhiệm vụ cho nền tảng và hệ thống tự tìm kiếm giải pháp tối ưu bên trong; trong khi AutoML Web3 đại diện bởi Gradients lại giống như “một thị trường mở”, người dùng đăng tải nhu cầu, các bên tham gia khác nhau cung cấp giải pháp, sau đó được sàng lọc thông qua cơ chế đánh giá. Sự khác biệt này mang lại ảnh hưởng trực tiếp: mô hình前者 ổn định và kiểm soát được hơn, nhưng lộ trình tối ưu bị hạn chế; mô hình后者 có không gian khám phá lớn hơn và tiềm năng giới hạn cao hơn, tuy nhiên vẫn còn khoảng cách trong việc cải thiện tính ổn định và độ chín muồi.

6.3 Sự khác biệt của Gradients trong Web3

Trong lĩnh vực Web3 AI hiện tại, đa số các dự án vẫn tập trung vào lớp suy luận hoặc hướng AI Agent, trong khi các dự án chuyên về “cơ sở hạ tầng huấn luyện” tương đối ít. Một số dự án cố gắng kết hợp mạng tính toán hoặc mạng dữ liệu để cung cấp khả năng huấn luyện, nhưng nhìn chung, phần lớn vẫn dừng lại ở mức điều phối tài nguyên hoặc thị trường tính toán. Sự khác biệt của Gradients nằm ở chỗ, nó không chỉ cung cấp kết nối tính toán, mà còn mở rộng thêm lên “cơ chế tối ưu hóa mô hình” chính nó, thông qua việc giới thiệu hệ thống đánh giá và cạnh tranh, giúp quá trình huấn luyện có khả năng phát triển liên tục. Điều này có nghĩa là, nó không chỉ giải quyết vấn đề “tính toán đến từ đâu”, mà còn giải quyết “làm thế nào để sử dụng hiệu quả hơn những nguồn tính toán này”. Về định vị, Gradients gần giống một mạng lưới “hướng tới kết quả huấn luyện”, chứ không chỉ đơn thuần là thị trường tính toán hay nền tảng công cụ, đây cũng là sự khác biệt cốt lõi so với đa số các dự án Web3 AI.

6.4 Lợi thế cốt lõi: Tăng hiệu quả do cơ chế thúc đẩy

Tổng thể, lợi thế của Gradients chủ yếu thể hiện ở thiết kế cơ chế của nó. Trước hết, nó giảm rào cản sử dụng thông qua việc trừu tượng hóa nhiệm vụ, cho phép người dùng không cần tham gia sâu vào quy trình huấn luyện phức tạp vẫn có thể nhận được kết quả mô hình, từ đó mở rộng nhóm người dùng tiềm năng. Thứ hai, về mặt tài nguyên, việc引入 tính toán phân tán giúp quá trình huấn luyện không còn phụ thuộc vào một nhà cung cấp đám mây duy nhất, về lý thuyết có thể tạo ra cấu trúc chi phí linh hoạt hơn thông qua cạnh tranh. Quan trọng hơn, sự thay đổi trong cách tối ưu hóa. Bằng cách cho nhiều người tham gia cùng khám phá song song và kết hợp cơ chế lọc, Gradients cung cấp một giải pháp khác biệt với phương pháp tối ưu hóa đường đơn truyền thống, giúp mô hình có cơ hội đạt hiệu suất tốt hơn trong thời gian ngắn hơn. Mô hình “tối ưu hóa do cạnh tranh thúc đẩy” này là lợi thế cốt lõi nhất của nó.

6.5 Thách thức tiềm ẩn

Chất lượng mô hình có thể gặp vấn đề về tính ổn định. Việc huấn luyện phi tập trung phụ thuộc vào sự tham gia của nhiều bên, mặc dù có thể nâng cao giới hạn tối đa, nhưng cũng có thể gây ra biến động trong kết quả; so với hệ thống tập trung, nó mang lại một mức độ không chắc chắn nhất định về khả năng kiểm soát. Tiếp theo là vấn đề niềm tin cấp doanh nghiệp. Đối với người dùng doanh nghiệp, an toàn dữ liệu và tính khả kiểm chứng của quá trình huấn luyện là vô cùng quan trọng, và trong môi trường phi tập trung, làm thế nào để đảm bảo dữ liệu không bị lạm dụng và kết quả có thể được kiểm toán vẫn là một thách thức then chốt. Cuối cùng là sự phụ thuộc vào kinh tế Token. Hoạt động của Gradients phụ thuộc rất lớn vào cơ chế khuyến khích; nếu lợi nhuận từ TAO giảm đi, điều này có thể ảnh hưởng đến mức độ tham gia của thợ mỏ và sự sôi động tổng thể của mạng lưới. Do đó, tính bền vững lâu dài của nó phần nào phụ thuộc vào việc mô hình kinh tế có thể tạo ra một chu kỳ tích cực ổn định hay không.

7. Triển vọng tương lai: Liệu AutoML phi tập trung có thể tồn tại?

Từ giai đoạn hiện tại, Gradients vẫn đang ở giai đoạn đầu, và khả năng thành công trong tương lai của nó phụ thuộc vào một số điểm then chốt. Quan trọng nhất là liệu nó có thể liên tục thu hút nhu cầu huấn luyện thực sự, chứ không chỉ là sự tham gia dựa trên phần thưởng; tiếp theo là chất lượng mô hình, liệu cách tiếp cận phi tập trung có thể ổn định tạo ra các kết quả có thể sử dụng, thậm chí tốt hơn; và cơ chế kinh tế có thể tạo thành vòng lặp tích cực, duy trì sự cân bằng lâu dài giữa nguồn cung năng lực tính toán và lợi nhuận.

Trong bối cảnh ngành rộng lớn hơn, việc huấn luyện AI đang phân hóa thành hai hướng đi. Một là mô hình Web2, do các công ty công nghệ hàng đầu dẫn dắt, thông qua việc tập trung nguồn lực và năng lực kỹ thuật để không ngừng nâng cao hiệu suất mô hình, với ưu điểm là ổn định và chín muồi; còn một là hướng đi Web3 đại diện bởi Gradients, thông qua mạng mở và cơ chế kích thích, cho phép nhiều bên tham gia cùng tối ưu hóa mô hình, liên tục nâng cao giới hạn trong cạnh tranh. Hướng thứ nhất đang “xây dựng hệ thống mạnh hơn”, trong khi hướng thứ hai giống như đang “xây dựng một mạng lưới tự tiến hóa”.

Từ góc độ này, việc Gradients khám phá đại diện cho một khả năng mới: việc huấn luyện AI không còn chỉ là vấn đề kỹ thuật, mà là sự kết hợp giữa “sức mạnh tính toán + dữ liệu + cơ chế thị trường”. Nếu mô hình này có thể thành công, nó có tiềm năng trở thành cổng vào huấn luyện AI phi tập trung và đóng vai trò là cơ sở hạ tầng then chốt trong hệ sinh thái Bittensor. Dĩ nhiên, hướng đi này vẫn cần thời gian để xác minh, nhưng nó đã cung cấp cho AutoML một hướng phát triển khác biệt so với con đường truyền thống.

Tham khảo

1. Tài liệu Bittensor:https://docs.learnbittensor.org

2. Trang web Gradients:https://www.gradients.io/

3. Đồ họa gradient:https://bittensormarketcap.com/subnets/56

4. Gradients X: https://x.com/gradients_ai

5. Taostats: https://taostats.io/subnets/56/chart

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể được lấy từ bên thứ ba và không nhất thiết phản ánh quan điểm hoặc ý kiến của KuCoin. Nội dung này chỉ được cung cấp cho mục đích thông tin chung, không có bất kỳ đại diện hay bảo đảm nào dưới bất kỳ hình thức nào và cũng không được hiểu là lời khuyên tài chính hay đầu tư. KuCoin sẽ không chịu trách nhiệm về bất kỳ sai sót hoặc thiếu sót nào hoặc về bất kỳ kết quả nào phát sinh từ việc sử dụng thông tin này. Việc đầu tư vào tài sản kỹ thuật số có thể tiềm ẩn nhiều rủi ro. Vui lòng đánh giá cẩn thận rủi ro của sản phẩm và khả năng chấp nhận rủi ro của bạn dựa trên hoàn cảnh tài chính của chính bạn. Để biết thêm thông tin, vui lòng tham khảo Điều khoản sử dụngTiết lộ rủi ro của chúng tôi.