ChainThink รายงานว่า เมื่อวันที่ 16 มีนาคม ตามข่าวอย่างเป็นทางการ ซับเน็ต Bittensor Templar (SN3) ได้เสร็จสิ้นการฝึกล่วงหน้าแบบกระจายศูนย์ครั้งใหญ่ที่สุดในประวัติศาสตร์สำหรับ LLM Covenant-72B เมื่อวันที่ 10 มีนาคม
ตามข้อมูลที่มีอยู่ Covenant-72B เป็นโมเดลภาษาที่มีพารามิเตอร์ 72 พันล้านตัว ซึ่งได้รับการฝึกล่วงหน้าโดยทีม Templar บน Bittensor Subnet 3 โดยใช้ข้อมูลอินเทอร์เน็ตทั่วไปอย่างสมบูรณ์ โดยไม่ต้องพึ่งศูนย์ข้อมูลแบบรวมศูนย์ โมเดลนี้ได้คะแนน 67.1 ในการทดสอบ MMLU (zero-shot) และทำผลงานดีกว่าโมเดลพื้นฐานแบบรวมศูนย์เช่น LLaMA-2-70B และ LLM360 K2 ในเงื่อนไขการประเมินเดียวกัน มันเป็นโมเดลภาษาแบบร่วมมือที่ไม่ต้องขออนุญาตและมีขนาดใหญ่ที่สุดเท่าที่เคยมีมา โดยในระหว่างการดำเนินงาน มีโหนดที่แตกต่างกันมากกว่า 70 โหนดบริจาคทรัพยากรการคำนวณ ทีมงานได้เผยแพร่น้ำหนักและจุดตรวจสอบทั้งหมดภายใต้ใบอนุญาต Apache
หรือได้รับผลกระทบจากข่าวดังกล่าว บิตเทนเซอร์ (TAO) และโทเค็นของซับเน็ตต่างๆ ต่างพุ่งขึ้น โดย TAO เพิ่มขึ้น 54.8% ในสองสัปดาห์ที่ผ่านมา โทเค็นซับเน็ต τemplar เพิ่มขึ้น 194% ในเจ็ดวันที่ผ่านมา และปัจจุบันอยู่ที่ 19.3 ดอลลาร์

