—— เริ่มจากคำพูดของ Gonka ที่ LA Hacks 2026
วันที่ 26 เมษายน DeepSeek เปิดตัว API รุ่น V4 ราคาใหม่: ราคาการเข้าถึงแคชการป้อนข้อมูลทั้งหมดลดลงเหลือหนึ่งในสิบของราคาเริ่มต้น หลังจากเพิ่มข้อเสนอจำกัดเวลาสำหรับรุ่น Pro ต้นทุนการประมวลผลหนึ่งล้านโทเค็นลดลงเหลือเพียง 0.025 หยวน — ถูกกว่าเมื่อหนึ่งปีก่อนถึงเกือบร้อยเท่า กลุ่มพลังการคำนวณของตลาดหุ้น A ปิดเพิ่มสูงสุดทั้งหมดในวันเดียวกัน ความรู้สึกของตลาดร้อนแรง
แต่เบื้องหลังเสียงปรบมือ มีคำถามหนึ่งที่ไม่มีใครพูดถึงโดยตรง: เมื่อโมเดลกลายเป็นราคาถูกขึ้นเรื่อยๆ กำลังการประมวลผลที่จำเป็นสำหรับการรันโมเดลกำลังมีการรวมศูนย์มากขึ้น
ข้อมูลไม่เคยโกหก ในไตรมาสที่สี่ของปี 2025 ค่าใช้จ่ายด้านทุนของผู้ให้บริการคลาวด์สี่ราย ได้แก่ Microsoft, Amazon, Meta และ Google เพิ่มขึ้น 64% เป็น 118.6 พันล้านดอลลาร์สหรัฐ; คาดว่าค่าใช้จ่ายด้านทุนรวมทั้งปี 2026 จะเพิ่มขึ้นอีก 53% เมื่อเทียบกับปีก่อนหน้า ไปอยู่ที่ 570.8 พันล้านดอลลาร์สหรัฐ Google ได้ปรับเป้าหมายการจัดส่งชิป TPU สำหรับปี 2026 ขึ้น 50% เป็น 6 ล้านชิ้น ช่วงเวลารอส่งมอบของชิป H100 ซีรีส์ของ NVIDIA ในบางตลาดได้ยืดยาวเป็นหลายเดือน
อำนาจการกำหนดราคาในระดับโมเดลกำลังเอนไปทางนักพัฒนา แต่การควบคุมระดับพลังการคำนวณกำลังรวมตัวเข้าสู่ผู้เล่นรายใหญ่ไม่กี่รายอย่างรวดเร็วยิ่งขึ้น นี่คือความขัดแย้งที่ซ่อนเร้นแต่ลึกซึ้งในยุคของ AI

ในบริบทนี้ เมื่อวันที่ 24 เมษายน 2026 ดาเนียลและเดวิด ลิเบอร์แมน ผู้ร่วมก่อตั้งโปรโตคอล Gonka ได้ขึ้นกล่าวในงาน LA Hacks 2026 การแข่งขันแฮกเกอร์รีดของมหาวิทยาลัยที่ใหญ่ที่สุดประจำปีของ UCLA โดยปีนี้ Liberman พี่น้องได้รับเชิญเป็นผู้กล่าวคำปราศรัยหลัก ต่อหน้าวิศวกรชั้นนำหลายร้อยคนที่กำลังจะก้าวเข้าสู่อุตสาหกรรมนี้ คำถามที่เขาเสนอขึ้นมาในเวลานี้ชัดเจนเป็นพิเศษ: กำลังประมวลผลแบบกระจายศูนย์ยังทันเวลาหรือไม่?
หนึ่ง ด้านอื่นของคลื่นลดราคา
เหตุผลในการลดราคาของ DeepSeek V4 ดูเหมือนเป็นผลประโยชน์จากประสิทธิภาพที่เพิ่มขึ้นเนื่องจากความก้าวหน้าทางเทคโนโลยี—กลไกการให้ความสำคัญใหม่ได้บีบอัดมิติของ Token ร่วมกับ DSA Sparse Attention ซึ่งลดความต้องการด้านการคำนวณและหน่วยความจำกราฟิกอย่างมาก แต่การลดราคาที่เกิดขึ้นอย่างต่อเนื่องนั้นขึ้นอยู่กับเงื่อนไขเบื้องหลังว่ามีพลังการประมวลผลที่เพียงพอและถูกพอ
ความจริงคือ แหล่งพลังการประมวลผลที่ “เพียงพอ” นี้กำลังรวมตัวอย่างรวดเร็วไปยังโหนดไม่กี่แห่งทั่วโลก ซีอีโอของบริษัทผู้นำด้านการสื่อสารด้วยแสง Lumentum คือ Michael Hurlston เพิ่งกล่าวว่า ตามแนวโน้มปัจจุบัน กำลังการผลิตของบริษัทจนถึงปี 2028 แทบจะขายหมดแล้ว นี่ไม่ใช่ปัญหาของบริษัทเดียว แต่เป็นความตึงเครียดร่วมกันของซัพพลายเชนโครงสร้างพื้นฐาน AI ที่เผชิญกับความต้องการที่ขยายตัวอย่างรวดเร็ว
ดาเนียลได้ใช้การเปรียบเทียบที่เรียบง่ายแต่ทรงพลังในการพูดที่ LA Hacks: กำลังการประมวลผลของเครือข่ายบิตคอยน์นั้นเกินกว่าผลรวมของศูนย์ข้อมูลคลาวด์ของกูเกิล ไมโครซอฟต์ และอะเมซอนทั้งสามแห่ง—แต่กำลังการประมวลผลเหล่านี้กำลังทำอะไรอยู่? กำลังแก้ปริศนาแฮชที่ไม่มีใครต้องการคำตอบ กำลังการประมวลผล GPU ที่เหลือใช้ทั่วโลกก็เช่นกัน: การ์ดจอในเครื่องเล่นเกม เซิร์ฟเวอร์ในห้องคอมพิวเตอร์ของมหาวิทยาลัย และปริมาณที่เหลืออยู่ของผู้ให้บริการคลาวด์ขนาดเล็กและกลาง รวมกันแล้วมีขนาดใหญ่มาก แต่เนื่องจากขาดกลไกการประสานงาน จึงไม่สามารถใช้งานโดย AI สำหรับการให้เหตุผลได้
กอนกาพยายามแก้ปัญหาการประสานงานนี้ โดยใช้กลไกแรงจูงใจของงานพิสูจน์งาน เพื่อจัดระเบียบ GPU ที่ไม่ได้ใช้งานทั่วโลกให้เป็นเครือข่ายที่สามารถรับภาระงานการอนุมาน AI จริง
สอง: การให้เหตุผลคือสนามรบใหม่
การลดราคาของ DeepSeek ได้ก่อให้เกิดการอภิปรายอย่างกว้างขวางในอินเทอร์เน็ตจีนเกี่ยวกับ “การเข้าถึง AI อย่างเท่าเทียม” แต่มีรายละเอียดหนึ่งที่ถูกละเลย: การลดราคาคือการลด “ราคาในการเรียกใช้งาน” ไม่ใช่ “ต้นทุนการประมวลผล” เมื่อการใช้งาน AI มีการขยายตัวในระดับใหญ่ ปริมาณการเรียกใช้งานการอนุมานจะเพิ่มขึ้นแบบเลขชี้กำลัง—ตามการพยากรณ์ของอุตสาหกรรม จนถึงปี 2026 การอนุมานจะคิดเป็นประมาณสองในสามของการใช้พลังการประมวลผล AI ทั่วโลก
นี่หมายความว่าอย่างไร? การลดราคาการเรียกใช้งานลงหนึ่งระดับ ปริมาณพลังการประมวลผลที่จำเป็นจริงๆ จะมากขึ้น ไม่ใช่น้อยลง การทำให้โมเดลขนาดใหญ่เป็นที่เข้าถึงได้ทั่วถึง ในบางแง่กลับเร่งกระบวนการรวมศูนย์ของชั้นพลังการประมวลผล—เพราะมีเพียงผู้เล่นที่มีพลังการประมวลผลขนาดใหญ่เท่านั้นที่จะสามารถรักษาการให้บริการการอนุมานไว้ได้ภายใต้กำไรขั้นต่ำที่ต่ำมาก
นี่คือการล็อกโครงสร้างที่กำลังเกิดขึ้น: ผู้ที่ควบคุมพลังการประมวลผลทางกายภาพด้านการให้เหตุผล จะควบคุมช่องทางเข้าสู่โครงสร้างพื้นฐานที่แท้จริงในยุคปัญญาประดิษฐ์ จากมุมมองนี้ ความหมายของเครือข่ายพลังการประมวลผลแบบกระจายศูนย์ไม่ได้จำกัดอยู่แค่การลดต้นทุน 50% เท่านั้น แต่คือการเสนอทางเลือกเชิงโครงสร้างก่อนที่การล็อกแบบรวมศูนย์จะเสร็จสิ้น
สาม: การตั้งคำถามที่แท้จริงต่อผู้สร้างรุ่นเยาว์
ผู้เข้าร่วม LA Hacks — วิศวกรและผู้เชี่ยวชาญด้านผลิตภัณฑ์จากมหาวิทยาลัยชั้นนำของแคลิฟอร์เนีย — จะต้องเผชิญกับทางเลือกทางวิศวกรรมที่ไม่โรแมนติกเร็วๆ นี้: การสร้างผลิตภัณฑ์ของตนเองบนชั้นพลังการคำนวณใด
เซิร์ฟเวอร์ของใครที่ผลิตภัณฑ์ AI ของคุณใช้สำหรับการเรียกใช้งานการประมวลผล?
เมื่อแพลตฟอร์มนั้นปรับกลยุทธ์การกำหนดราคาหรือนโยบายการเข้าถึง คุณมีความสามารถในการย้ายหรือไม่?
ขนาดผู้ใช้ที่คุณช่วยสร้างขึ้น กำลังสร้างมูลค่าให้กับตัวคุณเอง หรือกำลังส่งมอบ筹码ให้กับแพลตฟอร์ม?
คำถามเหล่านี้ได้รับการสัมผัสโดยนักพัฒนาแล้วในยุค Web2: เมื่อชะตากรรมของแอปพลิเคชันผูกติดกับอัลกอริทึมหรือกฎการแจกจ่ายของแพลตฟอร์มอย่างลึกซึ้ง “ความเป็นอิสระ” ก็กลายเป็นคำที่ต้องกำหนดใหม่อยู่เสมอ การพึ่งพาพลังการประมวลผลในยุค AI จะทำซ้ำตรรกะเดียวกันนี้ในระดับโครงสร้างพื้นฐาน และเนื่องจากต้นทุนการเปลี่ยนแปลงสูงขึ้น ผลกระทบจากการถูกล็อกจะยิ่งรุนแรงขึ้น

การแข่งขันแฮกธอน ในรูปแบบหนึ่ง กลับมีความขัดแย้งในตัวเอง: การสร้างสิ่งที่ใช้งานได้ภายใน 36 ชั่วโมง โดยใช้ทรัพยากรน้อยที่สุดและเร็วที่สุด — นี่คือสถานการณ์ที่กลไกการจูงใจของเครือข่ายแบบกระจายศูนย์ต้องการ Daniil ขึ้นเวทีที่ LA Hacks ไม่ได้แค่พูดถึง Gonka แต่ดูเหมือนกำลังถามกลุ่มคนเหล่านี้ว่า: สิ่งที่คุณจะทำในอนาคต คือการเร่งความโน้มเอียงไปสู่การรวมศูนย์ หรือกำลังสร้างโอกาสใหม่ๆ?
สี่: PoW 2.0: ข้อเสนอทางวิศวกรรม
Gonka ได้ปรับโครงสร้างแรงจูงใจของงานพิสูจน์การทำงานจากคำนวณแฮชไปสู่การให้เหตุผลของ AI ทำให้พลังการประมวลผลเกือบ 100% บนเครือข่ายสอดคล้องกับงานจริง กลไกนี้มีข้อกำหนดทางวิศวกรรมที่สำคัญ: งานการให้เหตุผลของ AI ต้องสามารถตรวจสอบและทำซ้ำได้—เมื่อให้ weights ของโมเดลเดียวกัน ค่า seed สุ่มเดียวกัน และอินพุตเดียวกัน โหนดใดๆ ก็สามารถทำซ้ำผลลัพธ์การคำนวณและตรวจสอบความถูกต้องของมันได้ นี่คืออุปสรรคทางวิศวกรรมหลักที่ Gonka ต้องเอาชนะเพื่อเปลี่ยนจากแบบจำลองเชิงวิชาการไปสู่เครือข่ายที่ใช้งานได้จริง
ในมุมมองทางเศรษฐศาสตร์ กลไกนี้มีความหมายว่า ค่าของโทเค็นถูกผูกไว้กับต้นทุนของพลังการคำนวณทางกายภาพโดยธรรมชาติ ไม่ใช่ความรู้สึกของสภาพคล่อง ผู้ขุดที่มีส่วนร่วมด้วยพลังการคำนวณจะได้รับผลตอบแทน ในขณะที่นักพัฒนาที่เรียกใช้พลังการคำนวณจะจ่ายค่าธรรมเนียม ระบบโดยรวมจึงสร้างวงจรแรงจูงใจที่ไม่ต้องพึ่งความกรุณาของตัวกลางใดๆ
แน่นอน ความเป็นไปได้ทางเทคนิคเป็นเพียงส่วนหนึ่ง ปัญหาที่ยากกว่าคือ: ในยุคที่ความต้องการกำลังการประมวลผลเติบโตอย่างรวดเร็ว และค่าใช้จ่ายด้านทุนของผู้เล่นรายใหญ่อยู่ในระดับหลายสิบพันล้านดอลลาร์สหรัฐ เครือข่ายกำลังการประมวลผลแบบกระจายที่จัดตั้งขึ้นโดยการบริจาคจากชุมชนเอง จะสามารถแข่งขันในระดับขนาดที่แท้จริงได้หรือไม่?
ข้อมูลเบื้องต้นของ Gonka ให้จุดอ้างอิง: ภายในเวลาไม่ถึงหนึ่งปีนับจากเปิดตัวบน mainnet กำลังประมวลผลรวมของเครือข่ายได้ขยายจาก 60 หน่วยเทียบเท่า H100 เป็นมากกว่า 10,000 หน่วย โดยความเร็วนี้เกิดจากการเชื่อมต่อแบบอัตโนมัติจากหลายร้อยโหนดอิสระทั่วโลก ไม่ใช่การจัดสรรแบบศูนย์กลาง แม้จะยังไม่สามารถพิสูจน์ได้ว่าปัญหาด้านขนาดได้รับการแก้ไขแล้ว แต่มันแสดงให้เห็นว่ากลไกการให้แรงจูงใจสามารถขับเคลื่อนการเติบโตในระยะเริ่มต้นได้อย่างมีประสิทธิภาพ
ห้า ปัญหาช่วงเวลา
ในประวัติศาสตร์ สิทธิ์ในการควบคุมโครงสร้างพื้นฐานมักจะรวมตัวอย่างรวดเร็วในช่วงต้น—ยุครถไฟก็เช่นนั้น ยุคอินเทอร์เน็ตก็เช่นนั้น และยุคโมบายล์อินเทอร์เน็ตก็เช่นกัน ทุกครั้ง มีผู้คนที่หาจุดแทรกเข้าไปได้ก่อนที่มาตรฐานจะคงที่ และมีผู้คนที่ตระหนักถึงสิทธิ์ในการมีส่วนร่วมที่ลดลงอย่างมากหลังจากกระบวนการรวมศูนย์เสร็จสิ้น
โครงสร้างพื้นฐานด้านพลังการประมวลผล AI ปัจจุบันอยู่ในระยะใด? จากการคาดการณ์ค่าใช้จ่ายด้านทุนของผู้ให้บริการคลาวด์รายใหญ่ 4 รายที่ 570.8 พันล้านดอลลาร์สหรัฐในปี 2026 ความเป็นศูนย์กลางกำลังเร่งตัวขึ้น; แต่จากพฤติกรรมการใช้งานจริงของนักพัฒนา ด้านอุปทานยังคงมีทรัพยากรจำนวนมากที่ยังไม่ถูกรวมเข้าด้วยกันอย่างมีประสิทธิภาพ ช่องว่างนี้คือพื้นที่ที่เครือข่ายแบบกระจายศูนย์สามารถมีอยู่ได้ในเชิงโครงสร้าง
ดานิลได้อ้างเปรียบเทียบในการพูดว่า หลังจากฟองสบู่อินเทอร์เน็ตปี 2000 ระเบิดลง สิ่งที่เหลืออยู่ไม่ใช่ซากปรักหักพัง แต่เป็นเครือข่ายไฟเบอร์ออปติกที่ทอดยาวทั่วโลก ซึ่งสนับสนุนเศรษฐกิจดิจิทัลในอีกสองทศวรรษถัดมา หลังจากคลื่นการลงทุนในโครงสร้างพื้นฐาน AI ลดลง สิ่งที่เหลืออยู่คือโปรโตคอลการประมวลผลและกลไกการให้รางวัล ซึ่งจะกลายเป็นโครงสร้างพื้นฐานของวัฏจักรถัดไป—ปัญหาคือ โปรโตคอลใดมีตรรกะพื้นฐานที่มั่นคงพอที่จะยังคงทำงานได้ภายใต้แรงกดดัน
นี่ไม่ใช่คำถามเกี่ยวกับโครงการเฉพาะเจาะจง แต่เป็นคำถามที่ทั้งระบบนิเวศ AI แบบกระจายศูนย์ต้องเผชิญโดยตรง: การออกแบบการกำกับดูแลสามารถต้านทานการแทรกแซงจากจุดควบคุมเดียวได้จริงหรือไม่? กลไกการกระตุ้นยังคงมีประสิทธิภาพเมื่อขยายขนาดหรือไม่? การกระจายศูนย์ของเครือข่ายการประมวลผล สามารถเป็นจริงได้พร้อมกันในสามระดับ ได้แก่ ระดับการดำเนินงานทางเทคนิค ระดับการออกโทเค็น และระดับการตัดสินใจอัปเกรดหรือไม่?
ข้อสรุป
การลดราคาของ DeepSeek ทำให้เรื่องราวการประชาธิปไตยของ AI กลับมาได้รับความสนใจอีกครั้ง แต่การประชาธิปไตยของการเรียกใช้งานการให้เหตุผล และการประชาธิปไตยของโครงสร้างพื้นฐานด้านกำลังการประมวลผล เป็นสองสิ่งที่ต่างกัน อย่างแรกกำลังเกิดขึ้นแล้ว แต่การเกิดขึ้นของอย่างหลังขึ้นอยู่กับว่าในอีกไม่กี่ปีข้างหน้า จะมีคนกี่คนที่มองว่านี่เป็นปัญหาทางวิศวกรรมที่ควรแก้ไขอย่างแท้จริง ไม่ใช่แค่เรื่องราวที่ฟังดูดี
