เขียนโดย Xiao Bing, Shenchao TechFlow
ฤดูใบไม้ร่วงปี 2023 ไอลยา สุตส์เคเวอร์ นักวิทยาศาสตร์หัวหน้าของ OpenAI นั่งอยู่หน้าคอมพิวเตอร์และเสร็จสิ้นเอกสารขนาด 70 หน้า
เอกสารนี้จัดทำจากบันทึกข้อความบน Slack ไฟล์การสื่อสารกับฝ่ายทรัพยากรบุคคล และบันทึกการประชุมภายใน เพื่อตอบคำถามเดียวเท่านั้น: Sam Altman ผู้ควบคุมเทคโนโลยีที่อาจเป็นอันตรายที่สุดในประวัติศาสตร์มนุษยชาติ สามารถเชื่อถือได้หรือไม่?
คำตอบของ Sutskever เขียนไว้ในบรรทัดแรกของหน้าแรกของเอกสาร หัวข้อรายการคือ "Sam แสดงรูปแบบพฤติกรรมที่สม่ำเสมอ..."
ข้อที่หนึ่ง: พูดโกหก
วันนี้ ซึ่งผ่านไปสองปีครึ่งแล้ว นักข่าวสอบสวน Ronan Farrow และ Andrew Marantz ได้ตีพิมพ์รายงานการสอบสวนที่ยาวมากในนิตยสาร The New Yorker โดยสัมภาษณ์ผู้เกี่ยวข้องมากกว่า 100 คน ได้รับเอกสารภายในที่ไม่เคยเปิดเผยมาก่อน และบันทึกส่วนตัวกว่า 200 หน้าของ Dario Amodei ผู้ร่วมก่อตั้ง Anthropic ซึ่งเขียนไว้ในช่วงที่เขาอยู่ที่ OpenAI เรื่องราวที่ถูกประกอบขึ้นจากเอกสารเหล่านี้รุนแรงกว่าการต่อสู้ภายในครั้งใหญ่ในปี 2023 มาก: OpenAI ได้เปลี่ยนจากองค์กรไม่แสวงหากำไรที่ก่อตั้งขึ้นเพื่อความปลอดภัยของมนุษย์ ไปสู่เครื่องจักรเชิงพาณิชย์อย่างไร โดยแทบทุกมาตรการป้องกันความปลอดภัย ล้วนถูกทำลายโดยบุคคลเดียวกัน
ข้อสรุปของ Amodei ในบันทึกนั้นตรงไปตรงมากว่า: “ปัญหาของ OpenAI คือ Sam เอง”
การตั้งค่า "ความผิดเริ่มต้น" ของ OpenAI
เพื่อเข้าใจน้ำหนักของรายงานนี้ ต้องอธิบายก่อนว่าบริษัท OpenAI พิเศษเพียงใด
ในปี 2015 อัลตแมนและกลุ่มผู้เชี่ยวชาญจากซิลิคอนแวลลีย์ได้ทำสิ่งที่แทบไม่เคยมีมาก่อนในประวัติศาสตร์ธุรกิจ: ใช้องค์กรไม่แสวงหากำไรเพื่อพัฒนาเทคโนโลยีที่อาจเป็นเทคโนโลยีที่ทรงพลังที่สุดในประวัติศาสตร์ของมนุษยชาติ หน้าที่ของคณะกรรมการถูกกำหนดไว้อย่างชัดเจนว่า ความปลอดภัยมีความสำคัญกว่าความสำเร็จของบริษัท และแม้แต่การมีอยู่ของบริษัทเอง พูดง่ายๆ คือ หากวันหนึ่ง AI ของ OpenAI กลายเป็นอันตราย คณะกรรมการจะมีหน้าที่ปิดบริษัทนี้ลงด้วยตนเอง
ระบบเต็มรูปแบบนี้อิงอยู่บนสมมติฐานหนึ่ง: ผู้ที่ควบคุม AGI ต้องเป็นคนที่ซื่อสัตย์อย่างยิ่ง
ถ้าเดาผิดล่ะ?
แกนหลักของรายงานคือเอกสาร 70 หน้า Sutskever ไม่เล่นการเมืองในสำนักงาน เขาเป็นหนึ่งในนักวิทยาศาสตร์ AI ชั้นนำของโลก แต่จนถึงปี 2023 เขาก็ยิ่งมั่นใจมากขึ้นในสิ่งหนึ่ง: Altman กำลังพูดโกหกอย่างต่อเนื่องต่อผู้บริหารและคณะกรรมการ
ตัวอย่างที่ชัดเจน: ในเดือนธันวาคม 2022 อัลต์แมนรับประกันในการประชุมคณะกรรมการว่า คุณสมบัติหลายประการของ GPT-4 ที่กำลังจะเปิดตัวได้ผ่านการตรวจสอบความปลอดภัยแล้ว สมาชิกคณะกรรมการโทเนอร์ขอดูเอกสารการอนุมัติ แต่กลับพบว่า คุณสมบัติสองประการที่ถกเถียงมากที่สุด (การปรับแต่งเองโดยผู้ใช้และการปรับใช้ผู้ช่วยส่วนตัว) ไม่ได้รับการอนุมัติจากคณะกรรมการความปลอดภัยเลย
สิ่งที่น่าประหลาดใจยิ่งกว่านั้นเกิดขึ้นในอินเดีย พนักงานคนหนึ่งรายงานการละเมิดครั้งนี้ต่อสมาชิกคณะกรรมการอีกคนหนึ่ง: ไมโครซอฟท์ไม่ได้ดำเนินการทบทวนความปลอดภัยที่จำเป็น แต่ยังเปิดตัวรุ่นต้นแบบของ ChatGPT ล่วงหน้าในอินเดีย
สุตส์เคเวอร์ยังบันทึกอีกเรื่องหนึ่งในโน้ตของเขาว่า: อัลต์แมนเคยพูดกับอดีต CTO มิรา มูราติ ว่า กระบวนการอนุมัติด้านความปลอดภัยไม่ได้สำคัญมากนัก เพราะที่ปรึกษาทางกฎหมายของบริษัทได้รับรองแล้ว มูราติจึงไปยืนยันกับที่ปรึกษาทางกฎหมาย ซึ่งได้รับคำตอบว่า: "ฉันไม่รู้ว่าแซมได้ความประทับใจนี้มาจากไหน"
บันทึกส่วนตัว 200 หน้าของ Amodei
เอกสารของ Sutskever ดูเหมือนคำฟ้องของอัยการ บันทึกกว่า 200 หน้าของ Amodei ดูเหมือนสมุดบันทึกที่พยานเขียนไว้ที่ที่เกิดเหตุ
ในช่วงหลายปีที่ Amodei รับผิดชอบด้านความปลอดภัยที่ OpenAI เขาได้เห็นบริษัทถอยหลังทีละขั้นภายใต้แรงกดดันทางธุรกิจ เขาบันทึกรายละเอียดสำคัญเกี่ยวกับการลงทุนของ Microsoft ในปี 2019: เขาเคยใส่ข้อกำหนด "การรวมกันและการช่วยเหลือ" ไว้ในข้อบังคับของ OpenAI ซึ่งมีใจความว่า หากบริษัทอื่นค้นพบเส้นทาง AGI ที่ปลอดภัยกว่า OpenAI ควรหยุดการแข่งขันและหันไปช่วยบริษัทนั้น นี่คือการรับประกันด้านความปลอดภัยที่เขาให้ความสำคัญที่สุดในธุรกรรมทั้งหมด
ขณะลงนามอย่างรวดเร็ว อาโมเดียสังเกตเห็นสิ่งหนึ่ง: ไมโครซอฟท์ได้รับสิทธิ์ยับยั้งข้อกำหนดนี้ หมายความว่าอย่างไร? แม้ในวันหนึ่งผู้แข่งขันรายอื่นจะค้นพบวิธีที่ดีกว่า ไมโครซอฟท์ก็สามารถพูดเพียงประโยคเดียวเพื่อปิดกั้นหน้าที่ในการช่วยเหลือของ OpenAI ข้อกำหนดยังอยู่บนกระดาษ แต่ตั้งแต่วันที่ลงนาม มันก็กลายเป็นกระดาษเปล่า
อามอดีต่อมาได้ลาออกจาก OpenAI และก่อตั้ง Anthropic การแข่งขันระหว่างสองบริษัทนี้มีรากฐานมาจากความแตกต่างพื้นฐานเกี่ยวกับ "การพัฒนา AI ควรทำอย่างไร"
ข้อผูกพันด้านพลังการขุดที่หายไป 20%
มีรายละเอียดหนึ่งในรายงานที่ทำให้รู้สึกขนลุกหลังจากอ่านเกี่ยวกับทีม "ซูเปอร์อัลไลน์" ของ OpenAI
กลางปี 2023 อัลต์แมนได้ส่งอีเมลหาปริญญาเอกนักศึกษาคนหนึ่งที่ศึกษาเรื่อง “การจัดแนวที่หลอกลวง” (AI แสดงตัวดีในช่วงทดสอบ แต่เมื่อนำไปใช้งานจริงกลับทำตามที่ตัวเองต้องการ) โดยบอกว่าเขากังวลอย่างมากเกี่ยวกับปัญหานี้ และกำลังพิจารณาจัดตั้งรางวัลการวิจัยระดับโลกมูลค่า 1 พันล้านดอลลาร์สหรัฐ นักศึกษาคนนั้นรู้สึกมีแรงบันดาลใจอย่างมาก จึงหยุดการเรียนและเข้าร่วม OpenAI
จากนั้น อัลต์แมนก็เปลี่ยนใจ: ไม่จัดรางวัลภายนอกอีกต่อไป แต่สร้างทีม "ซูเปอร์อัลไลน์" ภายในบริษัทแทน บริษัทประกาศอย่างเป็นทางการว่าจะจัดสรร "พลังการประมวลผลที่มีอยู่ 20%" ให้กับทีมนี้ ซึ่งมีมูลค่าศักยภาพเกิน 1 พันล้านดอลลาร์สหรัฐ ข้อความในการประกาศมีน้ำเสียงรุนแรงมาก โดยระบุว่า หากปัญหาการอัลไลน์ไม่ได้รับการแก้ไข AGI อาจนำไปสู่ "การถูกปลดอำนาจของมนุษยชาติ หรือแม้แต่การสูญพันธุ์ของมนุษยชาติ"
แจน เลียก ซึ่งได้รับการแต่งตั้งให้เป็นหัวหน้าทีมนี้ ต่อมาได้บอกกับผู้สื่อข่าวว่า คำมั่นสัญญาดังกล่าวเองก็เป็น "เครื่องมือรักษาบุคลากร" ที่มีประสิทธิภาพอย่างมาก
แต่ในความเป็นจริง บุคคลสี่คนที่ทำงานในทีมนี้หรือมีปฏิสัมพันธ์อย่างใกล้ชิดระบุว่า กำลังการประมวลผลที่จัดสรรจริงๆ มีเพียง 1% ถึง 2% ของกำลังการประมวลผลทั้งหมดของบริษัท และยังเป็นฮาร์ดแวร์รุ่นเก่าที่สุด ทีมนี้ต่อมาถูกยุบ และภารกิจยังไม่เสร็จสิ้น
เมื่อผู้สื่อข่าวขอสัมภาษณ์บุคลากรของ OpenAI ที่รับผิดชอบการวิจัยด้าน "ความปลอดภัยในการมีอยู่" ทีมประชาสัมพันธ์ของบริษัทตอบสนองด้วยความรู้สึกที่ทั้งขันและน่าเศร้า: "นั่นไม่ใช่... สิ่งที่มีอยู่จริง"
อัลต์แมนเองก็รับสารภาพอย่างตรงไปตรงมา เขาบอกกับผู้สื่อข่าวว่า "สัญชาตญาณของเขากับแนวคิดด้านความปลอดภัยของ AI แบบดั้งเดิมค่อนข้างไม่เข้ากัน" และ OpenAI จะยังคงทำ "โครงการด้านความปลอดภัย หรืออย่างน้อยก็โครงการที่เกี่ยวข้องกับความปลอดภัย"
CFO ที่ถูกถอดถอนและ IPO ที่กำลังจะมา
รายงานของ The New Yorker แค่เป็นครึ่งหนึ่งของข่าวร้ายในวันนั้น ในวันเดียวกัน The Information ได้เปิดเผยข่าวใหญ่อีกฉบับ: CFO ของ OpenAI คือ Sarah Friar มีความขัดแย้งรุนแรงกับ Altman
ฟรายเออร์ได้บอกกับเพื่อนร่วมงานอย่างลับๆ ว่าเธอคิดว่า OpenAI ยังไม่พร้อมสำหรับการเข้าตลาดในปีนี้ เหตุผลสองประการ: ปริมาณงานเชิงกระบวนการและองค์กรที่ยังต้องทำมีมากเกินไป และความเสี่ยงทางการเงินจากคำมั่นของอัลต์แมนเกี่ยวกับการใช้จ่ายพลังการคำนวณ 600,000 ล้านดอลลาร์สหรัฐภายใน 5 ปี สูงเกินไป เธอยังไม่แน่ใจว่าการเติบโตของรายได้ของ OpenAI จะสามารถรองรับคำมั่นเหล่านี้ได้หรือไม่
แต่อัลต์แมนต้องการผลักดันการเข้าตลาดหลักทรัพย์ในไตรมาสที่สี่ของปีนี้
ที่น่าแปลกยิ่งกว่านั้นคือ Friar ไม่ได้รายงานต่อ Altman โดยตรงอีกต่อไป ตั้งแต่เดือนสิงหาคม 2025 เธอเริ่มรายงานต่อ Fidji Simo (ซีอีโอของธุรกิจแอปพลิเคชันของ OpenAI) ขณะที่ Simo เพิ่งลาพักรักษาตัวเนื่องจากปัญหาสุขภาพเมื่อสัปดาห์ที่แล้ว ลองพิจารณาสถานการณ์นี้: บริษัทที่กำลังเร่งรัดเพื่อเข้าตลาดหุ้น ซีอีโอและซีเอฟโอมีความขัดแย้งพื้นฐาน ซีเอฟโอไม่รายงานต่อซีอีโอ และหัวหน้าของซีเอฟโอก็กำลังลาพักผ่อน
แม้แต่ผู้บริหารภายในไมโครซอฟต์ก็ไม่สามารถทนดูได้อีกต่อไป กล่าวว่า Altman “บิดเบือนความจริง กลับคำพูด และล้มล้างข้อตกลงที่ได้ตกลงกันแล้ว” ผู้บริหารคนหนึ่งของไมโครซอฟต์ยังกล่าวว่า: “ฉันรู้สึกว่าเขามีโอกาสบางประการที่สุดท้ายแล้วจะถูกจดจำในฐานะผู้หลอกลวงระดับ Bernie Madoff หรือ SBF”
ภาพลักษณ์ "สองหน้า" ของ Altman
สมาชิกคณะกรรมการ OpenAI คนก่อนหน้าได้อธิบายกับผู้สื่อข่าวถึงคุณลักษณะสองประการของ Altman คำพูดนี้อาจเป็นภาพวาดตัวละครที่รุนแรงที่สุดในบทความทั้งหมด
ผู้บริหารคนนี้กล่าวว่า อัลต์แมนมีคุณลักษณะที่พบได้ยากมาก: เขาต้องการอย่างแรงกล้าที่จะทำให้ผู้อื่นพึงพอใจและชอบเขาในทุกการพูดคุยแบบตัวต่อตัว พร้อมกับความไม่สนใจอย่างเกือบเป็นโรคทางสังคมต่อผลลัพธ์ที่อาจเกิดขึ้นจากการหลอกลวงผู้อื่น
การมีคุณลักษณะทั้งสองอย่างนี้ร่วมกันในบุคคลเดียวเป็นเรื่องหายากมาก แต่สำหรับผู้ขาย มันคือพรอันสมบูรณ์แบบ
มีการเปรียบเทียบในรายงานที่พูดดีว่า: จอบส์มีชื่อเสียงในเรื่อง “สนามบิดเบือนความเป็นจริง” ที่ทำให้โลกทั้งใบเชื่อในวิสัยทัศน์ของเขา แต่แม้แต่จอบส์ก็ไม่เคยพูดกับลูกค้าว่า “ถ้าคุณไม่ซื้อเครื่องเล่น MP3 ของฉัน คนที่คุณรักจะตาย”
Altman ได้พูดในทำนองเดียวกันเกี่ยวกับ AI
ปัญหาด้านคุณธรรมของซีอีโอ ทำไมจึงเป็นความเสี่ยงของทุกคน
หากอัลต์แมนเป็นเพียงซีอีโอของบริษัทเทคโนโลยีทั่วไป ข้อกล่าวหาเหล่านี้ก็อาจเป็นเพียงข่าวลือทางธุรกิจที่น่าสนใจเท่านั้น แต่ OpenAI ไม่ใช่บริษัททั่วไป
ตามที่มันระบุเอง มันกำลังพัฒนาเทคโนโลยีที่อาจเป็นเทคโนโลยีที่ทรงพลังที่สุดในประวัติศาสตร์ของมนุษย์ ซึ่งสามารถเปลี่ยนรูปแบบเศรษฐกิจโลกและตลาดแรงงาน (OpenAI เพิ่งเผยแพร่เอกสารนโยบายเกี่ยวกับปัญหาการว่างงานที่เกิดจาก AI) และยังสามารถใช้ในการผลิตอาวุธชีวภาพหรือเคมีในปริมาณใหญ่ หรือโจมตีทางไซเบอร์
ทุกมาตรการด้านความปลอดภัยได้สูญเสียความหมายไปแล้ว ภารกิจเชิงไม่แสวงหากำไรของผู้ก่อตั้งถูกแทนที่ด้วยการวิ่งสู่การระดมทุน IPO อดีตศาสตราจารย์ด้านวิทยาศาสตร์และหัวหน้าด้านความปลอดภัยต่างเห็นว่า CEO “ไม่น่าเชื่อถือ” พันธมิตรเปรียบเทียบ CEO กับ SBF ในสถานการณ์เช่นนี้ อะไรทำให้ CEO คนนี้มีสิทธิ์ตัดสินใจเพียงฝ่ายเดียวว่าควรเปิดตัวโมเดล AI ที่อาจเปลี่ยนแปลงชะตากรรมของมนุษยชาติเมื่อใด
Gary Marcus (ศาสตราจารย์ด้าน AI แห่งมหาวิทยาลัยนิวยอร์ก และผู้สนับสนุนด้านความปลอดภัยของ AI มานาน) เขียนหนึ่งประโยคหลังอ่านรายงานนี้: หากโมเดล OpenAI รุ่นอนาคตในอนาคตสามารถสร้างอาวุธชีวภาพหรือเคมีขนาดใหญ่ หรือโจมตีเครือข่ายที่ทำลายล้างได้ คุณจะวางใจให้ Altman ตัดสินใจเพียงคนเดียวว่าจะปล่อยหรือไม่?
การตอบกลับของ OpenAI ต่อ The New Yorker นั้นกระชับ: "เนื้อหาส่วนใหญ่ของบทความนี้เป็นการนำเหตุการณ์ที่เคยรายงานแล้วมาพูดซ้ำ ผ่านการอ้างอิงจากแหล่งข่าวที่ไม่เปิดเผยตัวตนและเรื่องเล่าที่เลือกสรร ซึ่งแหล่งข่าวชัดเจนว่ามีเป้าหมายส่วนตัว"
วิธีการตอบกลับของ Altman: ไม่ตอบกลับข้อกล่าวหาเฉพาะเจาะจง ไม่ปฏิเสธความถูกต้องของบันทึกความจำ แต่ตั้งคำถามต่อแรงจูงใจ
บนร่างศพที่ไม่แสวงหากำไร ได้เติบโตขึ้นต้นไม้ที่สร้างเงิน
สิบปีของ OpenAI ถูกเขียนเป็นโครงเรื่องแบบนี้:
กลุ่มผู้อุดมการณ์ที่กังวลเกี่ยวกับความเสี่ยงของ AI ได้ก่อตั้งองค์กรไม่แสวงหากำไรที่มีภารกิจชัดเจน องค์กรนี้บรรลุความก้าวหน้าทางเทคโนโลยีที่โดดเด่น ความก้าวหน้านี้ดึงดูดทุนจำนวนมาก ทุนต้องการผลตอบแทน ภารกิจเริ่มถูกถอยหลัง ทีมความปลอดภัยถูกยุบ ผู้ตั้งคำถามถูกขจัดออก โครงสร้างไม่แสวงหากำไรถูกเปลี่ยนเป็นองค์กรเพื่อแสวงหากำไร คณะกรรมการที่เคยมีอำนาจปิดบริษัท ตอนนี้เต็มไปด้วยผู้สนับสนุนของซีอีโอ บริษัทที่เคยสัญญาว่าจะใช้พลังการคำนวณ 20% เพื่อปกป้องความปลอดภัยของมนุษย์ ตอนนี้พนักงานประชาสัมพันธ์กล่าวว่า “มันไม่ใช่สิ่งที่มีอยู่จริง”
ตัวเอกของเรื่อง ผู้เข้าร่วมกว่าหนึ่งร้อยคนให้แท็กเดียวกันกับเขา: "ไม่ถูกผูกมัดโดยความจริง"
เขากำลังเตรียมนำบริษัทนี้เข้าตลาดหุ้นด้วยมูลค่ากว่า 850,000 ล้านดอลลาร์สหรัฐ
ข้อมูลในบทความนี้รวบรวมจากรายงานสาธารณะของสื่อหลายแห่ง เช่น The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider และ The Information
