วันทำการแรกหลังวันหยุดวันที่ 1 พฤษภาคม ซีพูและมินิแม็กซ์ต่างพุ่งขึ้นอย่างแรง
วันที่ 4 พฤษภาคม ซือปู้เพิ่มขึ้นกว่า 10% ราคาหุ้นกลับมาใกล้ระดับพันหยวนอีกครั้ง ไมนิแม็กซ์พุ่งขึ้น 12.62% ปิดที่ 803 ดอลลาร์ฮ่องกง
ตามรายงานของมอร์แกน สแตนลีย์ สาเหตุที่หุ้นพุ่งสูงขึ้นมาจากการเล่าเรื่อง “คุ้มค่ากับราคา” ที่เป็นเอกลักษณ์ของ AI ของจีน
มอร์แกน สแตนลีย์ ในรายงานเรื่อง “China’s AI Path: More Bang For The Buck” ระบุว่า ในเงื่อนไขที่พลังการคำนวณถูกจำกัด ระดับสติปัญญาของโมเดลชั้นนำของจีนและสหรัฐอเมริกากำลังเข้าใกล้กันอย่างรวดเร็ว และช่องว่างได้ลดลงเหลือเพียง 3 ถึง 6 เดือน
รายงานยังชี้ให้เห็นว่าจุดเด่นที่แท้จริงของโมเดลจีนคือสามารถบรรลุระดับปัญญาที่ใกล้เคียงกันในต้นทุนการให้เหตุผลเพียง 15% ถึง 20% ของคู่แข่งของสหรัฐฯ
ประโยคนี้เข้าใจได้ง่ายมาก ผู้ใช้ส่วนใหญ่ไม่จำเป็นต้องใช้โมเดลที่ทรงพลังที่สุด แต่ส่วนใหญ่ต้องการใช้โมเดลที่ราคาถูก
ตลาดไม่ได้ซื้อเรื่องราวแบบง่ายๆ ว่า “แทนที่สินค้าในประเทศ” แต่เป็นการที่ AI ของจีนกำลังแปลงคุ้มค่าใช้จ่ายเป็นปริมาณการใช้งานจริง รายได้จริง และความยืดหยุ่นของมูลค่าทางการตลาดจริง
แต่คำถามก็ตามมาว่า คุ้มค่าในแง่นี้มาจากที่ไหน?
หากแค่ดึงดูดลูกค้าด้วยราคาต่ำ มันจะเร็วๆ นี้กลายเป็นสงครามราคา
หากเป็นเพียงการกลั่นโมเดล แต่ตอนนี้บริษัทอย่าง Anthropic และ OpenAI ได้ปิดการเข้าถึงการกลั่นโมเดลแล้ว แล้วทำไมคะแนนจึงไม่ลดลง กลับถูกปรับขึ้นด้วย?
ในความเป็นจริง สิ่งที่ทำให้เรื่องราว này มีน้ำหนักมากขึ้นคือบล็อกเทคนิคของ Zhipu ที่เผยแพร่ก่อนวันแรงงาน ซึ่งมีชื่อว่า “Scaling Pain: การประยุกต์ใช้การให้เหตุผลของ Coding Agent ขนาดใหญ่พิเศษ”
บล็อกนี้ไม่ได้พูดถึงวิสัยทัศน์อันยิ่งใหญ่ของ AGI แต่เปิดเผยงานด้านวิศวกรรมระดับพื้นฐาน เช่น KV Cache, ปริมาณการรับส่งข้อมูล, การจัดตารางเวลา, และผลลัพธ์ผิดปกติ ให้กับตลาดเห็น
ที่สำคัญที่สุดคือ มันเปิดโปงความลับเบื้องหลังคุ้มค่าของ AI ของจีน
01
ในบล็อกนี้ ซีชูอธิบายคร่าวๆ เกี่ยวกับวิธีการปรับปรุงแคช การจัดตาราง และการตรวจสอบข้อผิดพลาด เพื่อให้ GPU เดียวกันสามารถทำงานได้มากขึ้นและเกิดข้อผิดพลาดน้อยลง
ZhiPu พบว่า AI ใช้งานไม่ดีไม่ได้หมายความว่าโมเดลไม่ฉลาด แต่อาจเป็นเพราะระบบพื้นหลังยุ่งเหยิง มันได้แก้ไขปัญหาข้อมูลแคชปนกัน ปรับปรุงการจัดสรร GPU และการใช้ซ้ำแคช รวมถึงเพิ่มระบบแจ้งเตือนที่สามารถตรวจจับผลลัพธ์ผิดปกติล่วงหน้า
ผลลัพธ์คือ ด้วยโมเดลเดียวกันและ GPU เดียวกัน สามารถให้บริการผู้ใช้ได้มากขึ้น และมีความน่าจะเป็นที่เกิดข้อผิดพลาดต่ำกว่า ดังนั้น “เรื่องราวเรื่องคุ้มค่า” ของมันไม่ใช่แค่การลดราคา แต่เป็นการเพิ่มประสิทธิภาพทางวิศวกรรมเพื่อสกัดพลังการประมวลผลที่เสถียรและใช้งานได้มากขึ้นจากแต่ละ GPU
หลังจากการปรับปรุงงานด้านโครงสร้างพื้นฐาน ความจุระบบของซีรีส์ GLM-5 ในสถานการณ์ Coding Agent เพิ่มขึ้นสูงสุด 132% อัตราการส่งออกผิดพลาดของระบบลดลงจากประมาณ 10 ต่อหมื่น เหลือ 3 ต่อหมื่น
ตัวอย่างเช่น ก่อนหน้านี้ GPU หนึ่งตัวสามารถให้บริการได้ 100 งานต่อชั่วโมง แต่ตอนนี้หลังจากปรับปรุงแล้ว อาจให้บริการได้สูงสุดถึง 232 งาน
แต่ละรายการเมื่อพิจารณาแยกกัน ไม่เพียงพอที่จะตัดสินชัยชนะ แต่เมื่อรวมกัน จะให้ปริมาณการรับส่งข้อมูลเพิ่มขึ้นเป็นสองเท่า และเพิ่มความมั่นคงสูงกว่าหนึ่งระดับในสภาพแวดล้อมที่มีพลังการคำนวณเท่ากัน
โมเดลไม่ได้เปลี่ยนไป สิ่งที่เปลี่ยนไปคือวิธีที่โมเดลถูกนำมาใช้งาน
โดยเฉพาะอย่างยิ่ง ตั้งแต่เดือนมีนาคม จีชูได้สังเกตเห็นปรากฏการณ์ผิดปกติสามประเภทในระบบตรวจสอบออนไลน์และข้อเสนอแนะจากผู้ใช้ของ GLM-5: ตัวอักษรที่ผิดเพี้ยน การพูดซ้ำ และตัวอักษรหายาก ปรากฏการณ์เหล่านี้ดูเหมือนกับ “การลดปัญญา” ที่พบบ่อยในสถานการณ์บริบทยาว
แต่ทีม Zhipu ไม่ได้เปิดใช้งานการปรับปรุงใดๆ ที่ลดความแม่นยำของโมเดล ดังนั้นความผิดปกตินี้เกิดจากตัวโมเดลเอง หรือเกิดจากเส้นทางการให้เหตุผล?
หลังจากวิเคราะห์และให้เหตุผลกับบันทึกโลจิกอย่างละเอียด พวกเขาพบจุดเริ่มต้นที่ไม่คาดคิด: ตัวชี้วัดการสุ่มตัวอย่างเชิง-spekulatif สามารถใช้เป็นสัญญาณอ้างอิงสำหรับการตรวจจับความผิดปกติ
การสุ่มตัวอย่างแบบคาดการณ์เดิมเป็นเพียงเทคนิคการปรับปรุงประสิทธิภาพ โดยโมเดลร่างแรกจะสร้าง token ที่เป็นไปได้ ก่อนที่โมเดลเป้าหมายจะตรวจสอบและตัดสินใจว่าจะยอมรับหรือไม่ เพื่อเพิ่มประสิทธิภาพในการถอดรหัสโดยไม่เปลี่ยนการกระจายผลลัพธ์สุดท้าย
ให้โมเดลเล็กสร้างคำตอบจำนวนมากก่อน แล้วโมเดลใหญ่จึงเลือกคำตอบที่ถูกต้อง วิธีนี้ทั้งเร็วและแม่นยำ
ทีม智谱พบว่า เมื่อเกิดความผิดปกติ ตัวชี้วัดสองตัวของการสุ่มตัวอย่างเชิงกลยุทธ์จะแสดงรูปแบบที่คงที่ ดังนั้นพวกเขาจึงขยายการสุ่มตัวอย่างเชิงกลยุทธ์จากแค่การปรับปรุงประสิทธิภาพ ให้เป็นสัญญาณตรวจสอบคุณภาพเอาต์พุตแบบเรียลไทม์
เมื่อ spec_accept_length คงที่ต่ำกว่า 1.4 และความยาวที่สร้างขึ้นเกิน 128 token หรือ spec_accept_rate สูงกว่า 0.96 ระบบจะยกเลิกการสร้างปัจจุบันโดยอัตโนมัติ และส่งคำขอไปยังตัวกระจายโหลดเพื่อทดลองใหม่
ตัวเลขสองตัวนี้เหมือนดัชนีการตรวจสุขภาพ หากมีค่าผิดปกติ แสดงว่าโมเดล “ป่วย” และจำเป็นต้องรีสตาร์ทเพื่อรักษา
แม้ผู้ใช้จะไม่รับรู้กระบวนการนี้ แต่ระบบพื้นหลังได้ดำเนินการรีสตาร์ทครั้งนี้แล้ว
สาเหตุหลักของข้อผิดพลาดคือความขัดแย้งในการใช้ซ้ำ KV Cache
มันเหมือนกับครัว ที่ในช่วงเวลาเร่งด่วนของมื้ออาหาร มีคนมากมายมาสั่งอาหารพร้อมกัน
ระบบต้องบันทึกบริบทของผู้ใช้แต่ละรายชั่วคราว ซึ่งก็คือ KV Cache เช่น แขกคนนี้เพิ่งสั่งอะไรไป ต้องการลดพริกหรือไม่ใส่ผักชี ถ้ามีแขกแค่สองสามคนก็ยังจัดการได้ แต่เมื่อจำนวนแขกเพิ่มขึ้น พนักงานบริการอาจจดจำผิดได้

ในช่วงที่มีการเข้าถึงพร้อมกันจำนวนมาก แคชบางส่วนถูกปล่อยคืน ใช้ซ้ำ หรืออ่านในลำดับที่ผิดพลาด ผลลัพธ์คือโมเดลอาจดึงบริบทผิด ทำให้แสดงผลเป็นรหัสที่ไม่สามารถอ่านได้ ซ้ำข้อความ หรือตัวอักษรแปลกๆ
ในระบบการประมวลผลแบบพิจารณา ภายใต้สถาปัตยกรรมการแยก PD มีความไม่สอดคล้องกันระหว่างวงจรชีวิตของคำขอกับเวลาการคืนค่าและนำกลับมาใช้ใหม่ของ KV Cache เมื่อมีความกดดันจากการใช้งานพร้อมกันสูง ความขัดแย้งจะถูกขยายใหญ่ขึ้น ซึ่งแสดงออกมาในฝั่งผู้ใช้เป็นข้อความผิดเพี้ยนและการซ้ำข้อความ
ดังนั้น คำขอหลายคำขอจึงแข่งขันกันเพื่อเข้าถึงหน่วยความจำเดียวกัน ทำให้ข้อมูลเสียหาย และผู้ใช้เห็นเป็นตัวอักษรที่ไม่สามารถอ่านได้
ทีม ZhiPu ได้ระบุบั๊กนี้และแก้ไขเรียบร้อยแล้ว
นอกจากนี้ พวกเขายังค้นพบและแก้ไขปัญหาการขาดลำดับการโหลดในโมดูล HiCache ที่ระดับรหัสแหล่งของกรอบงานการอนุมานแบบโอเพ่นซอร์สหลัก SGLang ซึ่งคือปัญหา read-before-ready
โซลูชันการแก้ไขได้รับการส่งไปยังชุมชน SGLang ผ่าน Pull Request #22811 และได้รับการยอมรับ
SGLang เป็นโครงการโอเพ่นซอร์ส ชื่อเต็มสามารถเข้าใจได้ว่าเป็นกรอบงานสำหรับการให้บริการหรือการประมวลผลแบบเรียลไทม์สำหรับโมเดลภาษาขนาดใหญ่ มันไม่ใช่โมเดลขนาดใหญ่ ไม่ใช่บริษัท AI แต่เป็นซอฟต์แวร์พื้นฐานที่ช่วยให้โมเดลขนาดใหญ่ทำงานได้อย่างมีประสิทธิภาพ
ZhiPu พบข้อผิดพลาดในการแคชที่เกิดขึ้นภายใต้การร้องขอแบบพร้อมกันสูงขณะใช้กรอบงานการให้เหตุผลแบบเปิดแหล่งที่มา SGLang
มันไม่ได้แค่แก้ไขภายในตัวเอง ซีซูยังส่งรหัสการแก้ไขให้กับโครงการโอเพ่นซอร์ส SGLang
หลังจากผู้ดูแลโครงการตรวจสอบและยอมรับแล้ว คำแก้ไขนี้จะถูกผสานเข้ากับเวอร์ชันสาธารณะ ทำให้นักพัฒนาและบริษัทอื่นๆ ที่ใช้ SGLang สามารถใช้งานได้ในภายหลัง
นี่หมายความว่าอย่างไร
หากเส้นทางการปรับใช้ของ Qwen ใดๆ ใช้ SGLang+HiCache อัลบาบาจะได้รับประโยชน์จากความสำเร็จของ Zhipu ในการค้นพบและแก้ไขปัญหานี้
ยังเป็นประโยคเดียวกับที่พูดไปก่อนหน้านี้ โมเดลไม่ได้เปลี่ยนไป แต่ผ่านการปรับปรุงด้านวิศวกรรม ทำให้มันใช้งานได้ฉลาดขึ้น
02
บทความบล็อกของ ZhiPu ได้เปิดเผยถึงระดับที่ลึกกว่านั้นจริงๆ
ความคุ้มค่าในยุคของแชทบอทส่วนใหญ่มาจากการฝึกอบรมที่มีต้นทุนต่ำ โดยชุดข้อมูลการฝึกอบรมบางส่วนมาจากการลดขนาดแบบจำลองชั้นนำ
ในยุคของตัวแทน วิธีนี้ใช้ไม่ได้แล้ว
ตั้งแต่ต้นปีนี้ Anthropic และ OpenAI ได้ปิดช่องทางการกลั่นกรองทีละแห่ง โดยระบุอย่างชัดเจนว่าห้ามใช้ผลลัพธ์จากโมเดลของพวกเขาในการฝึกโมเดลคู่แข่ง ทางลัดที่พึ่งพาการกลั่นกรองจึงค่อยๆ แคบลง
แต่เรื่องราวเกี่ยวกับคุ้มค่าของบริษัทปัญญาประดิษฐ์ของจีนยังไม่จางหาย下去 ตลาดกลับกำลังเพิ่มมูลค่าให้กับเรื่องนี้
เนื่องจากนิยามของคุ้มค่าได้เปลี่ยนไป
ยุคของแชทบอท ความยาวบริบทเฉลี่ย 55K โทเค็น การสนทนาแต่ละครั้ง มีการเชื่อมต่อพร้อมกันต่ำ
ยุคของตัวแทน ค่าเฉลี่ยบริบทมากกว่า 70K โทเค็น งานระยะยาว (ระดับ 8 ชั่วโมง) ความพร้อมใช้งานสูงและการใช้ซ้ำคำนำหน้าสูง
ในยุคของแชทบอท หน่วยวัดคุ้มค่าของ AI นั้นเรียบง่าย: เมื่อถามคำถามเดียวกัน โมเดลใดที่ถูกกว่าและให้คำตอบใกล้เคียงกับระดับชั้นนำมากที่สุด
อุตสาหกรรมกำลังพูดถึงราคาต่อหนึ่งล้านโทเค็น ขนาดพารามิเตอร์ของโมเดล และผลการจัดอันดับสูงแค่ไหน
ในยุคของเอเจนต์ ไม่มีใครถามเรื่องนี้ อัลกอริทึมนี้ใช้ไม่ได้แล้ว
ผู้ใช้ไม่ได้ซื้อแค่คำตอบหนึ่งคำตอบ แต่เขาซื้อผลลัพธ์ของการทำงานที่สมบูรณ์
ตัวแทนการเขียนโค้ดต้องอ่านโค้ด ทำความเข้าใจบริบท วางแผนขั้นตอน เรียกใช้เครื่องมือ แก้ไขไฟล์ รันการทดสอบ และลองใหม่หากล้มเหลว ปริมาณ token ที่ใช้ไม่ใช่การเพิ่มขึ้นแบบครั้งละคำถาม-คำตอบ แต่เป็นยอดรวมของทั้งกระบวนการ
OpenRouter เป็นแพลตฟอร์มเรียกใช้งานที่ใหญ่ที่สุดในโลก โดยปริมาณโทเค็นที่ประมวลผลต่อสัปดาห์เพิ่มขึ้นจาก 6.4 ล้านล้านในสัปดาห์แรกของเดือนมกราคม 2026 เป็น 13 ล้านล้านในสัปดาห์วันที่ 9 กุมภาพันธ์ ซึ่งเพิ่มขึ้นเป็นสองเท่าภายในหนึ่งเดือน
ตามคำอธิบายอย่างเป็นทางการของ OpenRouter ความต้องการในการเรียกใช้งานแบบเพิ่มเติมในช่วงข้อความยาว 100K ถึง 1M เป็นสถานการณ์การใช้งานที่พบได้บ่อยในงาน流程ของตัวแทน
รูปแบบการใช้งาน AI ของผู้ใช้ได้เปลี่ยนจากแบบ “การสนทนา” เป็นแบบ “กระบวนการ” ดังนั้น หน่วยคุ้มค่าของ AI จึงเปลี่ยนจาก “ราคาต่อโทเค็น” เป็น “ราคาต่อภารกิจ”
สิ่งนี้ทำให้บางรุ่นมีต้นทุนโทเค็นต่ำ แต่เนื่องจากประสิทธิภาพของรุ่นไม่ดี จึงมักล้มเหลวในการดำเนินงาน หรือผลลัพธ์ไม่เป็นไปตามมาตรฐาน ทำให้ราคาของเอเจนต์นั้นไม่ได้ถูกเลย
ตัวอย่างเช่น งานที่ใช้เวลา 8 ชั่วโมง หากเกิดการผิดพลาดเพียงครั้งเดียว กระบวนการทั้งหมดอาจต้องเริ่มใหม่ทั้งหมด ค่าใช้จ่ายต่อโทเค็นที่ประหยัดได้ไม่สามารถชดเชยเวลาที่สูญเปล่าได้
การเล่าเรื่องเกี่ยวกับมูลค่าที่คุ้มค่าของ AI ของจีนกำลังได้รับการยกระดับ
ก่อนหน้านี้พูดถึง “ให้คำตอบระดับเดียวกัน แต่ฉันถูกกว่า” ตอนนี้พูดถึง “งานที่ซับซ้อนเท่ากัน ฉันสามารถดำเนินการให้เสร็จด้วยต้นทุนต่ำกว่า”
โครงสร้างพื้นฐานแบบโอเพนซอร์สกำลังกลายเป็นคูน้ำป้องกันใหม่ของจีนในด้านปัญญาประดิษฐ์
เช่นเดียวกับ SGLang ที่กล่าวถึงก่อนหน้านี้ ความสามารถด้านวิศวกรรมของ AI ของจีนเริ่มแผ่ขยายไปยังชุมชนด้านบน
คุณค่าของเรื่องนี้ไม่ได้อยู่ที่การแก้บั๊กของ Zhipu เท่านั้น แต่อยู่ที่บริษัท AI ของจีนกำลังย้อนกลับไปสะสมความสามารถต่างๆ ที่เกิดจากปัญหาการรับภาระงานสูง บริบทยาว และการเรียกใช้งาน agent ในธุรกิจจริง ให้กลายเป็นความสามารถของโครงสร้างพื้นฐานสาธารณะ
เช่นเดียวกับที่กล่าวถึงก่อนหน้านี้ เมื่อการแก้ไขถูกนำเข้าสู่เฟรมเวิร์กโอเพ่นซอร์สเช่น SGLang มันจะไม่ได้ให้บริการเฉพาะโมเดลของ Zhipu อีกต่อไป ทีมทั้งหมดที่ใช้เฟรมเวิร์กนี้ในการปรับใช้โมเดลขนาดใหญ่ จะมีโอกาสได้รับแคชที่เสถียรยิ่งขึ้น ต้นทุนการให้บริการที่ต่ำกว่า และประสบการณ์ของเอเจนต์ที่ดีขึ้น
ความสามารถของโมเดลสามารถตามทันได้ ราคาสามารถถูกกดดันได้ แต่โครงสร้างพื้นฐานที่เข้าสู่ระบบนิเวศแบบเปิดแหล่งที่มาแล้ว จะกลายเป็นมาตรฐาน อินเทอร์เฟซ และนิสัยการพัฒนา
ผู้ที่เขียนประสบการณ์ด้านวิศวกรรมของตนเองลงในระบบพื้นฐานเหล่านี้ก่อน จะมีโอกาสได้ตำแหน่งที่มั่นคงมากกว่าเมื่อเกิดการระเบิดของแอปพลิเคชัน AI รอบถัดไป
03
กลับสู่ตลาดทุน
หุ้นที่เกี่ยวข้องกับโมเดล AI ขนาดใหญ่พุ่งขึ้นทั้งหมด ทุนยินดีที่จะกำหนดมูลค่าใหม่ให้กับบริษัท AI? ตลาดกำลังซื้ออะไรอยู่กันแน่?
คำตอบคือ ตลาดทุนกำลังจ่ายให้กับเรื่องเล่าที่ว่า “บริษัท AI ของจีนสามารถสร้างความสามารถใกล้เคียงกับปัญญาประดิษฐ์ระดับชั้นนำด้วยต้นทุนการให้บริการที่ต่ำกว่า”
ยังคงใช้ข้อมูลจาก OpenRouter เป็นตัวอย่าง
สัดส่วนการใช้โทเค็นของบริษัท AI ชั้นนำของจีน เพิ่มขึ้นอย่างรวดเร็วจาก 5% ในเดือนเมษายน 2025 เป็น 32% ในเดือนมีนาคม 2026 สัดส่วนของโมเดลชั้นนำของสหรัฐอเมริกา ลดลงอย่างมากจาก 58% เหลือ 19%
การใช้งานโทเค็นของ MiniMax, ZhiPu และ Alibaba เพิ่มขึ้น 4-6 เท่าในเดือนกุมภาพันธ์-มีนาคม 2026 เมื่อเทียบกับเดือนธันวาคมปีที่แล้ว
นอกจากการเรียกใช้โทเค็นแล้ว จีนยังกำลังพัฒนาตรรกะการเติบโตที่แตกต่างอย่างสิ้นเชิงจากผู้เล่นรายใหญ่ต่างประเทศ
แบบจำลองชั้นนำจากต่างประเทศกำลังขาย “ค่าตอบแทนจากความสามารถ”
ยิ่งโมเดลมีความสามารถแข็งแกร่งเท่าใด การเรียกใช้งานแต่ละครั้งก็ยิ่งมีราคาสูงขึ้น ผู้ใช้จ่ายเงินเพื่อชำระค่าใช้จ่ายสำหรับปัญญาประดิษฐ์ที่ทรงพลังที่สุด Claude, GPT-5 และ Gemini ต่างก็กำลังเดินไปในทิศทางนี้
จีนกำลังขาย “วิศวกรรม” ด้วย AI
ความสามารถของโมเดลใกล้เคียงกับโมเดลระดับชั้นนำ แต่มีราคา ความล่าช้า และข้อจำกัดในการเรียกใช้งานต่ำกว่า เหมาะกับความต้องการของสถานการณ์ความถี่สูงส่วนใหญ่
รายงานของมอร์แกน สแตนลีย์ระบุว่า ราคาอินพุตของโมเดลจีนอยู่ที่ประมาณ 0.3 ดอลลาร์สหรัฐต่อล้านโทเค็น ขณะที่ราคาของผลิตภัณฑ์ประเภทเดียวกันบางรายการจากต่างประเทศอยู่ที่ประมาณ 5 ดอลลาร์สหรัฐ ซึ่งมีช่องว่างระหว่างกันมากกว่าสิบเท่า
เมื่อ AI เปลี่ยนจากเครื่องมือทดลองใช้เป็นเครื่องมือผลิต ความคุ้มค่าจะเป็นตัวกำหนดความถี่ในการเรียกใช้งานโดยตรง
โมเดลถูกลง บริษัทจึงกล้ามอบหมายงานบริการลูกค้า โค้ด การตลาด และการวิเคราะห์ข้อมูลจำนวนมากให้กับมัน ยิ่งงานถูกดำเนินการมากเท่าใด การใช้โทเค็นก็ยิ่งเพิ่มขึ้น ทำให้แพลตฟอร์มสามารถกระจายต้นทุนโครงสร้างพื้นฐานได้ดีขึ้น

ฉันคิดว่าในส่วนนี้ มันอาจสามารถสร้างวงจรหมุนได้
รอบแรก คือการดึงดูดนักพัฒนาและองค์กรด้วยราคา API ที่ต่ำกว่าและความสามารถที่ใกล้เคียงกับระดับแนวหน้า
รอบที่สอง การใช้งานที่สูงขึ้นจะนำพาสถานการณ์จริงที่มากขึ้น ผลักดันให้โมเดลและระบบการอนุมานปรับปรุงต่อไป
รอบที่สาม ซึ่งเป็นที่กล่าวถึงในบล็อกเทคนิคของ Zhipu คือการใช้การปรับปรุงด้านวิศวกรรมเพื่อลดต้นทุนต่อโทเค็นและต่อภารกิจ ทำให้ผู้ผลิตมีความสามารถในการลดราคาต่อไป เพิ่มปริมาณ หรือขึ้นราคาในสถานการณ์ที่มีมูลค่าสูง
รอบที่สี่ เมื่อการใช้โทเค็นกลายเป็นปริมาณการเข้าชมใหม่ในยุคปัญญาประดิษฐ์ ผู้ที่สามารถรองรับโทเค็นได้มากขึ้นด้วยต้นทุนต่ำกว่า จะเข้าใกล้สถานะบริษัทแพลตฟอร์มในขั้นตอนถัดไปมากกว่า
หากแค่โมเดลลดราคา ตลาดจะกังวลว่านี่คือการอุดหนุนและสงครามราคา ซึ่งจะใช้เงินมากขึ้นเรื่อยๆ จนสุดท้ายก็มีใครสักคนที่กระเป๋าเงินไม่สามารถรับไหว
นอกจากนี้ ราคาที่แข่งขันกันไม่สามารถสนับสนุนการประเมินมูลค่าที่สูงได้
แต่หากการลดราคาเกิดจากประสิทธิภาพการผ่านข้อมูลที่เพิ่มขึ้น การใช้ซ้ำแคชที่ดีขึ้น อัตราความผิดปกติที่ลดลง และประสิทธิภาพการจัดสรรงานที่ดีขึ้น การลดราคาจึงไม่ใช่การแลกเปลี่ยนกำไรเพื่อเติบโต แต่เป็นพื้นที่ต้นทุนที่เกิดจากการปลดปล่อยศักยภาพทางวิศวกรรม
ผลจากการแข่งขันด้านราคาและการปรับปรุงด้านวิศวกรรมนี้ แม้จะทำให้โมเดลถูกลงและดูเหมือนกันในงบการเงิน แต่ในแบบจำลองการประเมินมูลค่า กลับต่างกันอย่างมาก
前者是补贴,市场会折价。后者是工程壁垒,市场会溢价。
สุดท้ายสามารถสรุปเป็นการตัดสินใจได้
ในอดีต การประเมินมูลค่าบริษัท AI ขึ้นอยู่กับขีดจำกัดของความสามารถของโมเดล และใครใกล้เคียงกับ AGI มากที่สุด ตลาดในเวลานั้นจ่ายเงินสำหรับ “ปัญญาที่แข็งแกร่งที่สุด” นิยามของปัญญาที่แข็งแกร่งที่สุดเริ่มคลุมเครือมากขึ้น และค่าใช้จ่ายต่อการเรียกใช้งานแต่ละครั้งสูงขึ้น
ในยุคของเอเจนต์ ค่าประเมินยังต้องพิจารณาจากขีดจำกัดต้นทุน ดูว่าใครสามารถส่งมอบความฉลาดอย่างมั่นคง ราคาถูก และในปริมาณใหญ่ได้
สำหรับผู้ที่ต้องการความ “ชาญฉลาด” ที่ทันสมัยที่สุด นี่อาจไม่ใช่สิ่งที่ AI ของจีนเชี่ยวชาญ
อย่างไรก็ตาม AI ของจีนเป็นผู้ที่มีแนวโน้มสูงสุดในการทำให้คำว่า “ปัญญาประดิษฐ์” กลายเป็นโครงสร้างพื้นฐานที่ทุกคนและทุกองค์กรสามารถเข้าถึงได้
แต่ตลาดยินดีจ่ายเงินเฉพาะสำหรับบริษัทที่สามารถอธิบายตรรกะของตนเองได้อย่างชัดเจน
บทความนี้มาจาก微信号 “LetterRank” (ID: wujicaijing) โดยผู้เขียน: Miao Zheng
