DeepSeek ลดค่าใช้จ่าย API ลง 100 เท่า กระตุ้นการอภิปรายเกี่ยวกับการรวมศูนย์โครงสร้างพื้นฐาน AI

icon MarsBit
แชร์
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconสรุป

expand icon
ข่าวบนโซ่จากวันที่ 26 เมษายน 2026 แสดงให้เห็นว่า DeepSeek ลดค่าใช้จ่าย API ลง 100 เท่าพร้อมเปิดตัว V4 ค่าธรรมเนียมการเข้าถึงแคชอินพุตลดลงเหลือหนึ่งในสิบ และด้วยส่วนลด หนึ่งล้านโทเค็นตอนนี้มีราคาเพียง 0.025 หยวน ข่าว AI + crypto ชี้ให้เห็นถึงผลกระทบ โดยภาคการคำนวณของตลาดหุ้น A ของจีนพุ่งสูงขึ้น อย่างไรก็ตาม ความกังวลเพิ่มขึ้นเกี่ยวกับการรวมศูนย์โครงสร้างพื้นฐาน AI โดยบริษัทคลาวด์รายใหญ่เพิ่มการใช้จ่ายด้านทุน ทางเลือกแบบกระจายศูนย์เช่นโปรโตคอล Gonka กำลังทดสอบเครือข่าย GPU เพื่อต่อต้านแนวโน้มนี้

—— เริ่มจากคำพูดของ Gonka ที่ LA Hacks 2026

วันที่ 26 เมษายน DeepSeek เปิดตัว API รุ่น V4 ราคาใหม่: ราคาการเข้าถึงแคชการป้อนข้อมูลทั้งหมดลดลงเหลือหนึ่งในสิบของราคาเริ่มต้น หลังจากเพิ่มข้อเสนอจำกัดเวลาสำหรับรุ่น Pro ต้นทุนการประมวลผลหนึ่งล้านโทเค็นลดลงเหลือเพียง 0.025 หยวน — ถูกกว่าเมื่อหนึ่งปีก่อนถึงเกือบร้อยเท่า กลุ่มพลังการคำนวณของตลาดหุ้น A ปิดเพิ่มสูงสุดทั้งหมดในวันเดียวกัน ความรู้สึกของตลาดร้อนแรง

แต่เบื้องหลังเสียงปรบมือ มีคำถามหนึ่งที่ไม่มีใครพูดถึงโดยตรง: เมื่อโมเดลกลายเป็นราคาถูกขึ้นเรื่อยๆ กำลังการประมวลผลที่จำเป็นสำหรับการรันโมเดลกำลังมีการรวมศูนย์มากขึ้น

ข้อมูลไม่เคยโกหก ในไตรมาสที่สี่ของปี 2025 ค่าใช้จ่ายด้านทุนของผู้ให้บริการคลาวด์สี่ราย ได้แก่ Microsoft, Amazon, Meta และ Google เพิ่มขึ้น 64% เป็น 118.6 พันล้านดอลลาร์สหรัฐ; คาดว่าค่าใช้จ่ายด้านทุนรวมทั้งปี 2026 จะเพิ่มขึ้นอีก 53% เมื่อเทียบกับปีก่อนหน้า ไปอยู่ที่ 570.8 พันล้านดอลลาร์สหรัฐ Google ได้ปรับเป้าหมายการจัดส่งชิป TPU สำหรับปี 2026 ขึ้น 50% เป็น 6 ล้านชิ้น ช่วงเวลารอส่งมอบของชิป H100 ซีรีส์ของ NVIDIA ในบางตลาดได้ยืดยาวเป็นหลายเดือน

อำนาจการกำหนดราคาในระดับโมเดลกำลังเอนไปทางนักพัฒนา แต่การควบคุมระดับพลังการคำนวณกำลังรวมตัวเข้าสู่ผู้เล่นรายใหญ่ไม่กี่รายอย่างรวดเร็วยิ่งขึ้น นี่คือความขัดแย้งที่ซ่อนเร้นแต่ลึกซึ้งในยุคของ AI

Gonka

ในบริบทนี้ เมื่อวันที่ 24 เมษายน 2026 ดาเนียลและเดวิด ลิเบอร์แมน ผู้ร่วมก่อตั้งโปรโตคอล Gonka ได้ขึ้นกล่าวในงาน LA Hacks 2026 การแข่งขันแฮกเกอร์รีดของมหาวิทยาลัยที่ใหญ่ที่สุดประจำปีของ UCLA โดยปีนี้ Liberman พี่น้องได้รับเชิญเป็นผู้กล่าวคำปราศรัยหลัก ต่อหน้าวิศวกรชั้นนำหลายร้อยคนที่กำลังจะก้าวเข้าสู่อุตสาหกรรมนี้ คำถามที่เขาเสนอขึ้นมาในเวลานี้ชัดเจนเป็นพิเศษ: กำลังประมวลผลแบบกระจายศูนย์ยังทันเวลาหรือไม่?

หนึ่ง ด้านอื่นของคลื่นลดราคา

เหตุผลในการลดราคาของ DeepSeek V4 ดูเหมือนเป็นผลประโยชน์จากประสิทธิภาพที่เพิ่มขึ้นเนื่องจากความก้าวหน้าทางเทคโนโลยี—กลไกการให้ความสำคัญใหม่ได้บีบอัดมิติของ Token ร่วมกับ DSA Sparse Attention ซึ่งลดความต้องการด้านการคำนวณและหน่วยความจำกราฟิกอย่างมาก แต่การลดราคาที่เกิดขึ้นอย่างต่อเนื่องนั้นขึ้นอยู่กับเงื่อนไขเบื้องหลังว่ามีพลังการประมวลผลที่เพียงพอและถูกพอ

ความจริงคือ แหล่งพลังการประมวลผลที่ “เพียงพอ” นี้กำลังรวมตัวอย่างรวดเร็วไปยังโหนดไม่กี่แห่งทั่วโลก ซีอีโอของบริษัทผู้นำด้านการสื่อสารด้วยแสง Lumentum คือ Michael Hurlston เพิ่งกล่าวว่า ตามแนวโน้มปัจจุบัน กำลังการผลิตของบริษัทจนถึงปี 2028 แทบจะขายหมดแล้ว นี่ไม่ใช่ปัญหาของบริษัทเดียว แต่เป็นความตึงเครียดร่วมกันของซัพพลายเชนโครงสร้างพื้นฐาน AI ที่เผชิญกับความต้องการที่ขยายตัวอย่างรวดเร็ว

ดาเนียลได้ใช้การเปรียบเทียบที่เรียบง่ายแต่ทรงพลังในการพูดที่ LA Hacks: กำลังการประมวลผลของเครือข่ายบิตคอยน์นั้นเกินกว่าผลรวมของศูนย์ข้อมูลคลาวด์ของกูเกิล ไมโครซอฟต์ และอะเมซอนทั้งสามแห่ง—แต่กำลังการประมวลผลเหล่านี้กำลังทำอะไรอยู่? กำลังแก้ปริศนาแฮชที่ไม่มีใครต้องการคำตอบ กำลังการประมวลผล GPU ที่เหลือใช้ทั่วโลกก็เช่นกัน: การ์ดจอในเครื่องเล่นเกม เซิร์ฟเวอร์ในห้องคอมพิวเตอร์ของมหาวิทยาลัย และปริมาณที่เหลืออยู่ของผู้ให้บริการคลาวด์ขนาดเล็กและกลาง รวมกันแล้วมีขนาดใหญ่มาก แต่เนื่องจากขาดกลไกการประสานงาน จึงไม่สามารถใช้งานโดย AI สำหรับการให้เหตุผลได้

กอนกาพยายามแก้ปัญหาการประสานงานนี้ โดยใช้กลไกแรงจูงใจของงานพิสูจน์งาน เพื่อจัดระเบียบ GPU ที่ไม่ได้ใช้งานทั่วโลกให้เป็นเครือข่ายที่สามารถรับภาระงานการอนุมาน AI จริง

สอง: การให้เหตุผลคือสนามรบใหม่

การลดราคาของ DeepSeek ได้ก่อให้เกิดการอภิปรายอย่างกว้างขวางในอินเทอร์เน็ตจีนเกี่ยวกับ “การเข้าถึง AI อย่างเท่าเทียม” แต่มีรายละเอียดหนึ่งที่ถูกละเลย: การลดราคาคือการลด “ราคาในการเรียกใช้งาน” ไม่ใช่ “ต้นทุนการประมวลผล” เมื่อการใช้งาน AI มีการขยายตัวในระดับใหญ่ ปริมาณการเรียกใช้งานการอนุมานจะเพิ่มขึ้นแบบเลขชี้กำลัง—ตามการพยากรณ์ของอุตสาหกรรม จนถึงปี 2026 การอนุมานจะคิดเป็นประมาณสองในสามของการใช้พลังการประมวลผล AI ทั่วโลก

นี่หมายความว่าอย่างไร? การลดราคาการเรียกใช้งานลงหนึ่งระดับ ปริมาณพลังการประมวลผลที่จำเป็นจริงๆ จะมากขึ้น ไม่ใช่น้อยลง การทำให้โมเดลขนาดใหญ่เป็นที่เข้าถึงได้ทั่วถึง ในบางแง่กลับเร่งกระบวนการรวมศูนย์ของชั้นพลังการประมวลผล—เพราะมีเพียงผู้เล่นที่มีพลังการประมวลผลขนาดใหญ่เท่านั้นที่จะสามารถรักษาการให้บริการการอนุมานไว้ได้ภายใต้กำไรขั้นต่ำที่ต่ำมาก

นี่คือการล็อกโครงสร้างที่กำลังเกิดขึ้น: ผู้ที่ควบคุมพลังการประมวลผลทางกายภาพด้านการให้เหตุผล จะควบคุมช่องทางเข้าสู่โครงสร้างพื้นฐานที่แท้จริงในยุคปัญญาประดิษฐ์ จากมุมมองนี้ ความหมายของเครือข่ายพลังการประมวลผลแบบกระจายศูนย์ไม่ได้จำกัดอยู่แค่การลดต้นทุน 50% เท่านั้น แต่คือการเสนอทางเลือกเชิงโครงสร้างก่อนที่การล็อกแบบรวมศูนย์จะเสร็จสิ้น

สาม: การตั้งคำถามที่แท้จริงต่อผู้สร้างรุ่นเยาว์

ผู้เข้าร่วม LA Hacks — วิศวกรและผู้เชี่ยวชาญด้านผลิตภัณฑ์จากมหาวิทยาลัยชั้นนำของแคลิฟอร์เนีย — จะต้องเผชิญกับทางเลือกทางวิศวกรรมที่ไม่โรแมนติกเร็วๆ นี้: การสร้างผลิตภัณฑ์ของตนเองบนชั้นพลังการคำนวณใด

เซิร์ฟเวอร์ของใครที่ผลิตภัณฑ์ AI ของคุณใช้สำหรับการเรียกใช้งานการประมวลผล?

เมื่อแพลตฟอร์มนั้นปรับกลยุทธ์การกำหนดราคาหรือนโยบายการเข้าถึง คุณมีความสามารถในการย้ายหรือไม่?

ขนาดผู้ใช้ที่คุณช่วยสร้างขึ้น กำลังสร้างมูลค่าให้กับตัวคุณเอง หรือกำลังส่งมอบ筹码ให้กับแพลตฟอร์ม?

คำถามเหล่านี้ได้รับการสัมผัสโดยนักพัฒนาแล้วในยุค Web2: เมื่อชะตากรรมของแอปพลิเคชันผูกติดกับอัลกอริทึมหรือกฎการแจกจ่ายของแพลตฟอร์มอย่างลึกซึ้ง “ความเป็นอิสระ” ก็กลายเป็นคำที่ต้องกำหนดใหม่อยู่เสมอ การพึ่งพาพลังการประมวลผลในยุค AI จะทำซ้ำตรรกะเดียวกันนี้ในระดับโครงสร้างพื้นฐาน และเนื่องจากต้นทุนการเปลี่ยนแปลงสูงขึ้น ผลกระทบจากการถูกล็อกจะยิ่งรุนแรงขึ้น

Gonka

การแข่งขันแฮกธอน ในรูปแบบหนึ่ง กลับมีความขัดแย้งในตัวเอง: การสร้างสิ่งที่ใช้งานได้ภายใน 36 ชั่วโมง โดยใช้ทรัพยากรน้อยที่สุดและเร็วที่สุด — นี่คือสถานการณ์ที่กลไกการจูงใจของเครือข่ายแบบกระจายศูนย์ต้องการ Daniil ขึ้นเวทีที่ LA Hacks ไม่ได้แค่พูดถึง Gonka แต่ดูเหมือนกำลังถามกลุ่มคนเหล่านี้ว่า: สิ่งที่คุณจะทำในอนาคต คือการเร่งความโน้มเอียงไปสู่การรวมศูนย์ หรือกำลังสร้างโอกาสใหม่ๆ?

สี่: PoW 2.0: ข้อเสนอทางวิศวกรรม

Gonka ได้ปรับโครงสร้างแรงจูงใจของงานพิสูจน์การทำงานจากคำนวณแฮชไปสู่การให้เหตุผลของ AI ทำให้พลังการประมวลผลเกือบ 100% บนเครือข่ายสอดคล้องกับงานจริง กลไกนี้มีข้อกำหนดทางวิศวกรรมที่สำคัญ: งานการให้เหตุผลของ AI ต้องสามารถตรวจสอบและทำซ้ำได้—เมื่อให้ weights ของโมเดลเดียวกัน ค่า seed สุ่มเดียวกัน และอินพุตเดียวกัน โหนดใดๆ ก็สามารถทำซ้ำผลลัพธ์การคำนวณและตรวจสอบความถูกต้องของมันได้ นี่คืออุปสรรคทางวิศวกรรมหลักที่ Gonka ต้องเอาชนะเพื่อเปลี่ยนจากแบบจำลองเชิงวิชาการไปสู่เครือข่ายที่ใช้งานได้จริง

ในมุมมองทางเศรษฐศาสตร์ กลไกนี้มีความหมายว่า ค่าของโทเค็นถูกผูกไว้กับต้นทุนของพลังการคำนวณทางกายภาพโดยธรรมชาติ ไม่ใช่ความรู้สึกของสภาพคล่อง ผู้ขุดที่มีส่วนร่วมด้วยพลังการคำนวณจะได้รับผลตอบแทน ในขณะที่นักพัฒนาที่เรียกใช้พลังการคำนวณจะจ่ายค่าธรรมเนียม ระบบโดยรวมจึงสร้างวงจรแรงจูงใจที่ไม่ต้องพึ่งความกรุณาของตัวกลางใดๆ

แน่นอน ความเป็นไปได้ทางเทคนิคเป็นเพียงส่วนหนึ่ง ปัญหาที่ยากกว่าคือ: ในยุคที่ความต้องการกำลังการประมวลผลเติบโตอย่างรวดเร็ว และค่าใช้จ่ายด้านทุนของผู้เล่นรายใหญ่อยู่ในระดับหลายสิบพันล้านดอลลาร์สหรัฐ เครือข่ายกำลังการประมวลผลแบบกระจายที่จัดตั้งขึ้นโดยการบริจาคจากชุมชนเอง จะสามารถแข่งขันในระดับขนาดที่แท้จริงได้หรือไม่?

ข้อมูลเบื้องต้นของ Gonka ให้จุดอ้างอิง: ภายในเวลาไม่ถึงหนึ่งปีนับจากเปิดตัวบน mainnet กำลังประมวลผลรวมของเครือข่ายได้ขยายจาก 60 หน่วยเทียบเท่า H100 เป็นมากกว่า 10,000 หน่วย โดยความเร็วนี้เกิดจากการเชื่อมต่อแบบอัตโนมัติจากหลายร้อยโหนดอิสระทั่วโลก ไม่ใช่การจัดสรรแบบศูนย์กลาง แม้จะยังไม่สามารถพิสูจน์ได้ว่าปัญหาด้านขนาดได้รับการแก้ไขแล้ว แต่มันแสดงให้เห็นว่ากลไกการให้แรงจูงใจสามารถขับเคลื่อนการเติบโตในระยะเริ่มต้นได้อย่างมีประสิทธิภาพ

ห้า ปัญหาช่วงเวลา

ในประวัติศาสตร์ สิทธิ์ในการควบคุมโครงสร้างพื้นฐานมักจะรวมตัวอย่างรวดเร็วในช่วงต้น—ยุครถไฟก็เช่นนั้น ยุคอินเทอร์เน็ตก็เช่นนั้น และยุคโมบายล์อินเทอร์เน็ตก็เช่นกัน ทุกครั้ง มีผู้คนที่หาจุดแทรกเข้าไปได้ก่อนที่มาตรฐานจะคงที่ และมีผู้คนที่ตระหนักถึงสิทธิ์ในการมีส่วนร่วมที่ลดลงอย่างมากหลังจากกระบวนการรวมศูนย์เสร็จสิ้น

โครงสร้างพื้นฐานด้านพลังการประมวลผล AI ปัจจุบันอยู่ในระยะใด? จากการคาดการณ์ค่าใช้จ่ายด้านทุนของผู้ให้บริการคลาวด์รายใหญ่ 4 รายที่ 570.8 พันล้านดอลลาร์สหรัฐในปี 2026 ความเป็นศูนย์กลางกำลังเร่งตัวขึ้น; แต่จากพฤติกรรมการใช้งานจริงของนักพัฒนา ด้านอุปทานยังคงมีทรัพยากรจำนวนมากที่ยังไม่ถูกรวมเข้าด้วยกันอย่างมีประสิทธิภาพ ช่องว่างนี้คือพื้นที่ที่เครือข่ายแบบกระจายศูนย์สามารถมีอยู่ได้ในเชิงโครงสร้าง

ดานิลได้อ้างเปรียบเทียบในการพูดว่า หลังจากฟองสบู่อินเทอร์เน็ตปี 2000 ระเบิดลง สิ่งที่เหลืออยู่ไม่ใช่ซากปรักหักพัง แต่เป็นเครือข่ายไฟเบอร์ออปติกที่ทอดยาวทั่วโลก ซึ่งสนับสนุนเศรษฐกิจดิจิทัลในอีกสองทศวรรษถัดมา หลังจากคลื่นการลงทุนในโครงสร้างพื้นฐาน AI ลดลง สิ่งที่เหลืออยู่คือโปรโตคอลการประมวลผลและกลไกการให้รางวัล ซึ่งจะกลายเป็นโครงสร้างพื้นฐานของวัฏจักรถัดไป—ปัญหาคือ โปรโตคอลใดมีตรรกะพื้นฐานที่มั่นคงพอที่จะยังคงทำงานได้ภายใต้แรงกดดัน

นี่ไม่ใช่คำถามเกี่ยวกับโครงการเฉพาะเจาะจง แต่เป็นคำถามที่ทั้งระบบนิเวศ AI แบบกระจายศูนย์ต้องเผชิญโดยตรง: การออกแบบการกำกับดูแลสามารถต้านทานการแทรกแซงจากจุดควบคุมเดียวได้จริงหรือไม่? กลไกการกระตุ้นยังคงมีประสิทธิภาพเมื่อขยายขนาดหรือไม่? การกระจายศูนย์ของเครือข่ายการประมวลผล สามารถเป็นจริงได้พร้อมกันในสามระดับ ได้แก่ ระดับการดำเนินงานทางเทคนิค ระดับการออกโทเค็น และระดับการตัดสินใจอัปเกรดหรือไม่?

ข้อสรุป

การลดราคาของ DeepSeek ทำให้เรื่องราวการประชาธิปไตยของ AI กลับมาได้รับความสนใจอีกครั้ง แต่การประชาธิปไตยของการเรียกใช้งานการให้เหตุผล และการประชาธิปไตยของโครงสร้างพื้นฐานด้านกำลังการประมวลผล เป็นสองสิ่งที่ต่างกัน อย่างแรกกำลังเกิดขึ้นแล้ว แต่การเกิดขึ้นของอย่างหลังขึ้นอยู่กับว่าในอีกไม่กี่ปีข้างหน้า จะมีคนกี่คนที่มองว่านี่เป็นปัญหาทางวิศวกรรมที่ควรแก้ไขอย่างแท้จริง ไม่ใช่แค่เรื่องราวที่ฟังดูดี

แหล่งที่มา:แสดงต้นฉบับ
คำปฏิเสธความรับผิดชอบ: ข้อมูลในหน้านี้อาจได้รับจากบุคคลที่สาม และไม่จำเป็นต้องสะท้อนถึงมุมมองหรือความคิดเห็นของ KuCoin เนื้อหานี้จัดทำขึ้นเพื่อวัตถุประสงค์ในการให้ข้อมูลทั่วไปเท่านั้น โดยไม่มีการรับรองหรือการรับประกัน และจะไม่ถูกตีความว่าเป็นคำแนะนำทางการเงินหรือการลงทุน KuCoin จะไม่รับผิดชอบต่อความผิดพลาดหรือการละเว้นในเนื้อหา หรือผลลัพธ์ใดๆ ที่เกิดจากการใช้ข้อมูลนี้ การลงทุนในสินทรัพย์ดิจิทัลอาจมีความเสี่ยง โปรดประเมินความเสี่ยงของผลิตภัณฑ์และความเสี่ยงที่คุณยอมรับได้อย่างรอบคอบตามสถานการณ์ทางการเงินของคุณเอง โปรดดูข้อมูลเพิ่มเติมได้ที่ข้อกำหนดการใช้งานและเอกสารเปิดเผยข้อมูลความเสี่ยงของเรา