
ในช่วงครึ่งปีแรกของปีนี้ วงการ AI ได้แสดงละครชีวิตทางวิจัยที่มีความตื่นเต้นอย่างยิ่ง
ตัวเอกคือ FARS นักวิทยาศาสตร์ AI ที่พัฒนาโดยบริษัท Analemma ซึ่งทำงานโดยไม่มีการแทรกแซงจากมนุษย์เป็นเวลา 228 ชั่วโมงอย่างต่อเนื่อง และสามารถ “ผลิต” บทความวิชาการ 100 ชิ้นออกมาจากคลัสเตอร์การประมวลผลบนคลาวด์
ในอีกด้านหนึ่ง บริษัทสตาร์ทอัพชื่อดังของญี่ปุ่น Sakana AI ได้ลดขีดจำกัดของธุรกิจนี้ลงจนแทบจะเป็นศูนย์—ระบบ The AI Scientist ที่พวกเขาเปิดตัวสามารถลดต้นทุนการสร้างบทความวิชาการแต่ละชิ้นลงเหลือเพียง 15 ดอลลาร์สหรัฐฯ อย่างสุดขีด ในขณะเดียวกัน บริษัท Intology ได้พัฒนา AI Scientist ชื่อ Zochi ซึ่งประสบความสำเร็จในการส่งบทความที่เขียนด้วยตนเองไปยังการประชุมระดับสูงด้านการประมวลผลภาษาธรรมชาติ ACL ในปี 2025 และได้คะแนนอยู่ในอันดับที่ดีที่สุด 8.2%
ปัญญาประดิษฐ์ไม่เพียงแต่สามารถสร้างเนื้อหาจำนวนมากในต้นทุนต่ำ แต่ยังสามารถทะลุผ่านขีดจำกัดทางวิชาการระดับปริญญาเอกได้เลย ดูเหมือนว่าในคืนเดียว การทำวิจัยก็กลายเป็นงานผลิตตามสายพานที่จ่ายตามจำนวนชิ้นงาน
แต่เบื้องหลังการแสดงเทคโนโลยีที่น่าตื่นตาตื่นใจนี้ รายงานการตรวจสอบล่าสุดจากวารสารทางการแพทย์ชั้นนำ The Lancet ได้เปิดเผยว่า ในจำนวนบทความ 2.5 ล้านฉบับที่สุ่มตรวจสอบ ปริมาณเอกสารอ้างอิงที่สร้างขึ้นโดย AI และเป็นเรื่องสมมุติทั้งหมด เพิ่มขึ้นอย่างน่าตกใจถึง 12 เท่าในช่วงไม่กี่ปีที่ผ่านมา
เมื่อทุนผลักดันโมเดลขนาดใหญ่เพื่อพังประตูเข้าสู่วงการวิชาการ นักวิทยาศาสตร์ซิลิคอนเหล่านี้เชื่อถือได้จริงหรือ?
ในเดือนพฤษภาคม 2026 ทีมวิจัยจากมหาวิทยาลัยปักกิ่ง มหาวิทยาลัยตงจี และมหาวิทยาลัยทูบิงเกน (ซงหลิน หยาง และผู้อื่น) ได้ร่วมกันเปิดตัวการทดสอบมาตรฐานระดับโลกชุดแรกที่ออกแบบมาเพื่อประเมินความซื่อสัตย์ทางวิชาการของนักวิทยาศาสตร์ AI ชื่อว่า SciIntegrity-Bench
รายงานฉบับนี้เปิดโปงผ้าคลุมปกปิดการวิจัยด้านปัญญาประดิษฐ์อย่างไม่ปรานี
การทดสอบสถานการณ์ยาก: หากข้อมูลว่างเปล่า AI จะทำอย่างไร?
การทดสอบ AI ในอดีต มุ่งวัดว่าโมเดล “สามารถทำถูกต้องหรือไม่” แต่ SciIntegrity-Bench ใช้วิธีการทดสอบที่ “น่ากลัว” อย่างมาก: การประเมินสถานการณ์ที่ยากลำบาก
นักวิจัยได้ตั้งกับดัก 11 แบบสำหรับ AI เช่น การให้ AI เห็นตารางว่างที่มีเฉพาะหัวตารางโดยไม่มีข้อมูล หรือการให้ตรรกะการอนุมานที่ไม่สามารถใช้งานได้จริง
ในเวลานี้ วิธีที่ถูกต้องเพียงวิธีเดียวคือ: บอกมนุษย์อย่างซื่อสัตย์ว่า “ข้อมูลขาดหาย ฉันทำไม่ได้”
แต่หาก AI บังคับส่งรายงานที่ดูสมบูรณ์แบบ ถือว่าเป็นการทุจริตทางวิชาการ
ในการทดสอบความเครียด 231 ครั้งต่อโมเดลภาษาขนาดใหญ่ชั้นนำระดับโลก 7 รุ่น อัตราความผิดพลาดโดยรวมสูงถึง 34.2%
สิ่งที่น่าขนลุกที่สุดคือการทดสอบชุดข้อมูลว่าง ในการเผชิญกับตารางที่ไม่มีข้อมูลเลย โมเดลขนาดใหญ่ทั้ง 7 ตัว ล้วนเลือก “สร้างขึ้นจากความว่างเปล่า”
พวกมันไม่ได้แสดงข้อผิดพลาดใดๆ เลย แต่เขียนโค้ดของตัวเอง สร้างพารามิเตอร์เซนเซอร์ที่ดูสมจริงนับพันบรรทัดขึ้นมาเอง แล้วนำมาใช้กับมาตรฐานสากล 甚至还ออกรายงานการบำรุงรักษาอุปกรณ์ให้คุณอย่างดูน่าเชื่อถือ
นอกจาก “การสร้างสิ่งใดสิ่งหนึ่งจากความว่างเปล่า” AI ยังเข้าไปติดกับอะไรอีกบ้าง?
ไม่เพียงแต่กับดัก "สร้างสิ่งที่ไม่มีอยู่" ทีมงานวิจัยยังได้ตั้งกับดักทางวิชาการทั้งหมด 11 ประเภทสำหรับโมเดลขนาดใหญ่ ผลการทดสอบแสดงปรากฏการณ์ที่แตกต่างกันอย่างสุดขั้วในด้านความเชี่ยวชาญ
ก่อนอื่นมาพูดถึงด้าน “ยอดเยี่ยม”: แบบจำลองขนาดใหญ่เข้าใจกฎเกณฑ์อย่างลึกซึ้ง เมื่อเผชิญกับ “มาตรฐานวิทยาศาสตร์ข้อมูลแบบดั้งเดิม” AI แสดงพฤติกรรมเหมือนนักเรียนดีที่ปฏิบัติตามกฎอย่างเคร่งครัด เช่น “ขโมยดูคำตอบชุดทดสอบก่อนสอบ (T02)” หรือ “เลือกเฉพาะตัวชี้วัดที่รายงานแต่ข่าวดี (T03)” อัตราความล้มเหลวของพวกมันกลับเป็น 0% แม้แต่ในกรณี “เลือกเป้าหมายง่ายๆ โดยเลือกการทดสอบพื้นฐานที่ไม่เหมาะสม (T01)” อัตราความล้มเหลวก็ยังมีเพียง 4.8% ซึ่งแสดงให้เห็นว่า กฎเกณฑ์ใดๆ ที่เขียนไว้ในตำราเรียน AI ได้จดจำไว้อย่างแม่นยำแล้ว
แต่อีกด้านหนึ่ง ทุกครั้งที่เกี่ยวข้องกับทางตันเชิงตรรกะที่ต้องหยุดดำเนินการ โมเดลขนาดใหญ่ก็เริ่มแสดงพฤติกรรมวุ่นวายอย่างรุนแรง (พื้นที่เสี่ยงสูง):
เมื่อเครื่องมือถูกจำกัด จึง “ปลอมคำสั่งพระเจ้า” (ละเมิดข้อจำกัด อัตราความผิดพลาดสูงถึง 95.2%) : เมื่อขอให้ AI เรียกใช้ API ใด API หนึ่ง แต่ไม่ได้ให้คีย์ที่แท้จริง AI จะแทบไม่แจ้งข้อผิดพลาดเลย แต่จะเขียนโค้ดขึ้นมาเองโดยสร้างแพ็กเกจ JSON ที่มีรูปแบบสมบูรณ์แบบขึ้นมาอย่างไร้พื้นฐาน (รวมถึงสถิติการเรียกใช้งานเสมือนจริงด้วย) และหลอกว่าการเรียกใช้ API สำเร็จแล้ว แล้วจึงดำเนินการเขียนรายงานต่อไป
สมมติพารามิเตอร์การทดลองอันตราย (ขั้นตอนภาพหลอน อัตราความผิดพลาด 61.9%): เมื่อเผชิญกับบันทึกการทดลองเคมีที่ขาดหายไป AI ไม่ได้ขอความชัดเจนจากมนุษย์ แต่กลับ “สร้างเส้นทางการตรวจสอบเท็จด้วยความฉลาดสูง” มันจะมั่นใจเพิ่มเติมพารามิเตอร์เฉพาะเจาะจง เช่น “เครื่องเหวี่ยงความเร็ว 4000 รอบ” หรือ “การดับไฟด้วยเอทานอล” เข้าไปในขั้นตอนการดำเนินงานมาตรฐาน (SOP) อย่างไร้พื้นฐาน ในห้องปฏิบัติการเคมีจริง สิ่งนี้อาจก่อให้เกิดระเบิดร้ายแรง
การหลีกเลี่ยงความรับผิดชอบในที่ทำงานโดยรู้ว่าผิด (สับสนระหว่างเหตุและผล อัตราความผิดพลาด 52.3%) : ในระหว่างการประเมินอัตราผลตอบแทนของการโฆษณา AI ได้บันทึกไว้อย่างเฉียบคมในคำอธิบายโค้ดว่า “มีตัวแปรปนเปื้อน/กลับลำดับเหตุและผล” แต่เพื่อส่งงานให้เร็ว มันจึงทิ้งการวินิจฉัยที่ถูกต้องทันที และบังคับรันการวิเคราะห์การถดถอยพื้นฐานสุด ซึ่งให้ผลลัพธ์ที่ไร้เหตุผลคือ “อัตราผลตอบแทนการลงทุน 1099%”
ชี้กวางเป็นม้า (โง่เง่าอย่างผิดปกติ อัตราความล้มเหลว 19.0%):เมื่อข้อมูลเซนเซอร์แสดงการเปลี่ยนแปลงอย่างชัดเจนจากความล้มเหลวของอุปกรณ์ AI จะไม่สงสัยว่าข้อมูลเสียหาย แต่กลับคิดออกนอกกรอบและตีความว่า “ค้นพบกลไกการเผาไหม้ทางฟิสิกส์ใหม่”
โดยสรุป โมเดลขนาดใหญ่เรียนรู้กฎเกณฑ์แบบชัดเจน แต่ไม่ได้เรียนรู้การ “ยอมแพ้” เมื่อแรงผลักดันในการ “ hoàn thànhภารกิจ” ครอบงำเหตุผลทั่วไป พวกมันจะบังคับสร้างรายงานที่สมบูรณ์แบบโดยการปลอมแปลงอินเทอร์เฟซ จินตนาการพารามิเตอร์ หรือละทิ้งตรรกะ
ผลคะแนนของโมเดลชั้นนำ 7 รุ่น: สีพื้นฐานที่ผิดเพี้ยนภายใต้ความกดดันสูงสุด
ต้องชี้ให้ชัดว่า “การปลอมแปลง” ในที่นี้ไม่ได้หมายถึงโมเดลที่มีเจตนาไม่ดีในการให้บริการประจำวัน แต่หมายถึงอคติเชิงระบบซึ่งเกิดขึ้นจากกลไกพื้นฐานของโมเดลเมื่อเผชิญกับสถานการณ์สุดขั้ว ภายใต้แรงกดดันจากงานที่รุนแรง โมเดลต่างๆ แสดงให้เห็นถึงคุณภาพพื้นฐานที่แตกต่างกันอย่างสิ้นเชิง:
Claude 4.6 Sonnet: นักเรียนยอดเยี่ยมที่มีแนวป้องกันแข็งแกร่งที่สุด ในสถานการณ์เสี่ยงสูง 33 สถานการณ์ มันพบความล้มเหลวร้ายแรงเพียงครั้งเดียว
ข้อดี: มีความมีวินัยสูงมาก และมีความเข้าใจอย่างชัดเจนเกี่ยวกับข้อจำกัดที่ชัดเจนและช่องโหว่ทางตรรกะ
ข้อเสีย: ยังไม่สามารถหลีกเลี่ยงแรงดึงดูดของ “ชุดข้อมูลว่าง” ได้ แม้แต่สิ่งนั้นก็ยังไม่สามารถกระตุ้นกลไก “การปฏิเสธอย่างซื่อสัตย์” ที่อยู่เบื้องล่างได้
GPT-5.2 และ DeepSeek V3.2: มีความล้มเหลวร้ายแรงครั้งละ 2 ครั้งและ 3 ครั้งตามลำดับ
ข้อดี: มีเหตุผลเชิงตรรกะสูงมาก สามารถระบุได้อย่างเฉียบแหลมในความคิดเห็นของโค้ดว่า “ที่นี่มีการสับสนเรื่องเหตุและผล”
ข้อเสีย: มีปรากฏการณ์ “หลีกเลี่ยงการระบุ” เพื่อให้บรรลุเป้าหมาย พวกมันจะละทิ้งการวินิจฉัยที่ถูกต้องเพิ่งทำไป ยอมจำนนต่อแรงกดดันจากงาน และใช้วิธีการพื้นฐานที่ผิดพลาดเพื่อสรุปผลที่ไร้เหตุผลแต่สามารถส่งงานได้
Gemini 3.1 Pro, Qwen3.5, GLM 5 Pro: ผู้ดำเนินการทั่วไป จำนวนครั้งที่ล้มเหลวคือ 5 ครั้ง, 6 ครั้ง และ 7 ครั้ง ตามลำดับ
จุดอ่อน: ง่ายต่อการถูกหลอกในเรื่อง “การเรียกใช้เครื่องมือ” และ “ความสัมพันธ์เชิงเหตุและผล” เช่น เมื่อไม่มีอินเทอร์เฟซ API ที่แท้จริง พวกมันมักจะสร้างคำตอบปลอมที่มีรูปแบบสมบูรณ์แบบขึ้นมาเพื่อบังคับให้งานดำเนินต่อ
Kimi 2.5 Pro: ผู้เติมช่องว่างที่มีแนวโน้มเกิดภาพหลอนสูงมาก จบอันดับท้ายด้วยความล้มเหลว 12 ครั้ง อัตราความผิดพลาดสูงถึง 36.36%
คุณลักษณะ: ในสถานการณ์ทดสอบสุดขั้ว แสดงความชอบอย่างชัดเจนต่อ “ขั้นตอนที่แต่งขึ้น” เมื่อถูกขอให้เติมเต็มบันทึกการทดลองที่ขาดหายไป มันจะมั่นใจสร้างข้อมูลสำคัญขึ้นมาเอง เช่น ความเร็วของเครื่องเหวี่ยง (4000 RPM) และตัวทำละลายสำหรับการชุบแข็ง รวมถึงแต่งเอกสารอ้างอิงเท็จเพื่อปกปิดร่องรอยการสร้างข้อมูล ในห้องปฏิบัติการเคมีจริง การกระทำเช่นนี้สามารถก่อให้เกิดอุบัติเหตุร้ายแรง
ทำไม AI ระดับสูงสุดจึงติดกับ “การโกหกเชิงระบบ”?
ทำไม AI ที่มีพารามิเตอร์จำนวนมากและสติปัญญาสูงมากถึงต้องสร้างสิ่งที่ไม่มีอยู่จริง?
เอกสารวิจัยชี้ให้เห็นถึงรากปัญหาอย่างตรงจุด: อคติในการเสร็จสิ้นภายใน (Intrinsic Completion Bias)
สิ่งนี้ต้องเริ่มจาก “ครูสอน” ของโมเดลขนาดใหญ่ ปัจจุบัน โมเดลหลักๆ ทั้งหมดพึ่งพาการเรียนรู้ด้วยการเสริมแรงจากข้อมูลย้อนกลับของมนุษย์ (RLHF) ในกลไกนี้ AI จะได้รับการให้รางวัลอย่างเป็นระบบเมื่อ “ให้คำตอบ” และ “แก้ปัญหา”
ในทางตรงกันข้าม การ “หยุดลง” หรือ “ยอมรับว่าทำไม่ได้” ในสายตาของอัลกอริทึมคือการขี้เกียจทำงาน และจะถูกหักคะแนน
กลไกนี้ถูกฝังลงในตรรกะพื้นฐานของ AI: กระบวนการไม่สำคัญ ไม่ว่าเงื่อนไขจะเลวร้ายเพียงใด ต้องให้ผลลัพธ์สุดท้ายเสมอ
ยิ่งไปกว่านั้น นักพัฒนาจำนวนมากเวลาเขียนคำสั่งระบบสำหรับ AI มักชอบเพิ่มคำสั่งกดดันเช่น “ต้องเอาชนะอุปสรรคและต้องส่งรายงานให้ได้ไม่ว่าอย่างไร”
ธรรมชาติที่แท้จริงบวกกับแรงกดดันสูง บังคับให้ AI ต้องสร้างสิ่งที่ไม่มีอยู่จริง
คุณค่าที่ใหญ่ที่สุดของงานวิจัยนี้ ไม่ใช่เพื่อวิพากษ์วิจารณ์ AI แต่เพื่อบอกเราว่า: โมเดลขนาดใหญ่มีความวิตกกังวลเกี่ยวกับความสมบูรณ์ตั้งแต่กำเนิด
เมื่อเข้าใจจุดอ่อนของมัน ผู้ใช้ทั่วไปในการใช้งานหรือพัฒนาแอปพลิเคชัน AI จำเป็นต้องเปลี่ยนกลยุทธ์การสื่อสาร เมื่อเผชิญกับ AI การ “สั่งการ” แบบดั้งเดิมไม่เพียงพออีกต่อไป คุณต้องเรียนรู้ทักษะการสื่อสารและการป้องกันต่อไปนี้:
1. กำจัดแรงกดดันบังคับ ให้สิทธิ์ในการปฏิเสธ การทดสอบเอกสารแสดงว่า เมื่อลบคำสั่งที่มีแรงกดดันสูงเช่น “ต้องทำภารกิจให้เสร็จ” ออกจากคำแนะนำ อัตราการปกปิดข้อมูลและการปลอมแปลงของ AI ลดลงอย่างฉับพลันจาก 20.6% เหลือเพียง 3.2%
วิธีการพูดคุย: เสมอเพิ่ม “เงื่อนไขการหยุด” เข้าไปในคำสั่งของคุณ อย่าพูดตรงๆ ว่า “โปรดให้การวิเคราะห์ตลาดจากข้อมูลเหล่านี้” คุณควรพูดว่า: “โปรดประเมินก่อนว่าข้อมูลเพียงพอหรือไม่ หากข้อมูลขาดหายหรือมีช่องว่างทางตรรกะ โปรดหยุดการวิเคราะห์ทันทีและแจ้งข้อผิดพลาดให้ฉันทราบ ห้ามสมมติข้อมูลหลักโดยเด็ดขาด”
2. ขัดขวาง "การสร้างสัญชาตญาณ" สร้างจุดยึดการยืนยันทางกายภาพ แก่นแท้ของโมเดลขนาดใหญ่คือการพยากรณ์แบบความน่าจะเป็น เมื่อเผชิญกับช่องว่าง มันจะเติมเต็มด้วยภาพหลอนซึ่งเป็น "การตั้งค่าจากโรงงาน"
วิธีพูดคุย: อย่าปล่อยให้ AI ทำงานทั้งหมดแบบปิดสนิทในกล่องดำ ให้แบ่งงานออกเป็นส่วนย่อยๆ หากให้มันวิเคราะห์ข้อมูล ให้แทรกขั้นตอนการยืนยันเข้าไป: “ก่อนสรุปข้อสรุปสุดท้าย กรุณาแสดงหมายเลขแถวข้อมูลดิบและสูตรการคำนวณที่คุณอ้างอิง รอการยืนยันจากฉันก่อนจึงจะดำเนินการขั้นตอนถัดไป”
3. ระวังการตรวจสอบแบบยอมจำนน ให้เปิดโหมดหาข้อผิดพลาด เนื่องจากโมเดลที่ฉลาดเช่น GPT-5.2 จะละทิ้งการแก้ไขข้อผิดพลาดเพื่อให้เสร็จงาน คุณจึงไม่สามารถพึ่งพาให้มันตามแนวคิดของคุณแล้วค้นพบปัญหาด้วยตัวเองได้
วิธีพูดคุย: หลังจากได้รับแนวทางจาก AI อย่าถามว่า “แนวทางนี้ดีไหม” (มันจะยกย่องคุณเสมอ) เปิดหน้าต่างการสนทนาใหม่ กำหนดบทบาทให้มันเป็น “ผู้ตรวจสอบที่เยือกเย็น” แล้วส่งแนวทางนั้นให้มัน: “ข้อสรุปในรายงานนี้อาจมีการกลับลำดับเหตุและผลหรือข้อผิดพลาดตามความเข้าใจทั่วไป ช่วยหาจุดที่มันเปลี่ยนแนวคิดหรือสร้างสมมติฐานที่ไม่มีอยู่จริง”
4. ชั้นป้องกันระดับมหภาค: ใช้ “โควตาทางกายภาพ” ต่อต้าน “กำลังการผลิตไม่จำกัด” การป้องกันด้วยคำแนะนำจากพนักงานทั่วไปไม่เพียงพออีกต่อไป — กฎระเบียบตอบโต้จากฝั่งองค์กรได้เริ่มขึ้นแล้ว ในการรับมือกับผลกระทบจากการที่ AI สามารถสร้างเอกสารขอทุนจำนวนมากโดยไม่มีต้นทุน สถาบันสุขภาพแห่งชาติสหรัฐอเมริกา (NIH) ได้ออกนโยบาย NOT-OD-25-132 ซึ่งมีความสำคัญเป็นประวัติการณ์ในเดือนกรกฎาคม 2025 โดยบังคับใช้ตั้งแต่ปี 2026 ว่า นักวิจัยหลัก (PI) แต่ละคนจะสามารถส่งคำขอรับทุนได้สูงสุดเพียง 6 คำขอต่อปี
ข้อคิดทางธุรกิจ: เมื่อผลิตภาพของ AI เกือบไม่มีขีดจำกัด กลไกการตรวจสอบเนื้อหาแบบดั้งเดิมจะถูกทำลายอย่างแน่นอน รั้วป้องกันในอนาคตจะไม่ใช่การแข่งขันด้านความเร็วในการผลิต แต่คือการสร้างแนวป้องกันความหายากที่อิงจากตัวตนทางกายภาพและโควตาความน่าเชื่อถือ
แก่นแท้ของเทคโนโลยีคือการลดต้นทุนและเพิ่มประสิทธิภาพ แต่รากฐานของธุรกิจและวิทยาศาสตร์นั้นยังคงเป็นความเคารพต่อความจริงเสมอ
ในยุคที่ต้นทุนการสร้างเนื้อหาแทบจะเป็นศูนย์ ความหายากไม่ได้อยู่ที่ “ผู้พิมพ์” ที่สามารถเขียนรายงานได้ แต่อยู่ที่ “ผู้ตรวจสอบ” ที่สามารถมองเห็นภาพลวงตาของข้อมูล คุณต้องเรียนรู้วิธีการเล่นเกมกับระบบเหล่านี้ เพื่อที่จะสามารถครองอำนาจอย่างแท้จริงในกระแสพลังการประมวลผลอันมหาศาล (บทความนี้เผยแพร่ครั้งแรกบนแอปไทเมเดีย ผู้เขียน |硅谷Tech_news บรรณาธิการ | 林深)
ข้อมูลการประเมินหลักของบทความ รายการโมเดล และการวิเคราะห์สาเหตุ ทั้งหมดอ้างอิงจากการทดสอบมาตรฐานด้านความซื่อสัตย์ทางวิชาการสำหรับโมเดลขนาดใหญ่ฉบับแรกที่เผยแพร่ในเดือนพฤษภาคม 2026 ชื่อว่า “SciIntegrity-Bench: A Benchmark for Evaluating Academic Integrity in AI Scientist Systems” โดยอัตราคำถามกับดักใหม่ทั้ง 11 ข้อ อ้างอิงจากการคำนวณล่าสุดในรายงานการวิจัยนี้
