Laporan New York Times mengungkap keraguan dalaman OpenAI terhadap kepercayaan Sam Altman

iconTechFlow
Kongsi
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRingkasan

expand icon
Berita on-chain New York Times mengungkap keraguan dalaman di OpenAI mengenai kebolehpercayaan CEO Sam Altman. Berdasarkan lebih daripada 100 temu bual dan dokumen dalaman, laporan tersebut menyatakan bahawa Altman menipu pihak pengurusan dan menghapuskan langkah-langkah keselamatan. Sebuah dokumen 70 muka surat daripada bekas saintis utama Ilya Sutskever merincikan dakwaan ketidakjujuran Altman, termasuk pernyataan palsu mengenai GPT-4. Dario Amodei daripada Anthropic menyatakan secara peribadi bahawa “masalah OpenAI ialah Sam sendiri.” Laporan tersebut juga menekankan peralihan OpenAI daripada misi keselamatan bukan keuntungan kepada entiti komersial, dengan protokol utama dilaporkan diabaikan. Senarai token baharu dan perubahan strategi korporat kini mengalami pemeriksaan yang lebih teliti dalam sektor AI dan kripto.

Artikel oleh Xiao Bing, Shenchao TechFlow

Pada musim gugur 2023, ilmuwan utama OpenAI, Ilya Sutskever, duduk di hadapan komputer dan menyelesaikan dokumen 70 halaman.

Dokumen ini disusun daripada rekod mesej Slack, arsip komunikasi HR, dan minit mesyuarat dalaman, semata-mata untuk menjawab satu soalan: Sam Altman, orang yang mengendalikan kemungkinan teknologi paling berbahaya dalam sejarah manusia, bolehkah dipercayai?

Jawapan Sutskever ditulis pada baris pertama halaman pertama fail, dengan tajuk senarai "Sam menunjukkan corak tingkah laku yang konsisten..."

First: Lying.

Hari ini, dua setengah tahun kemudian, wartawan penyelidik Ronan Farrow dan Andrew Marantz menerbitkan satu laporan penyelidikan panjang di The New Yorker. Mereka mewawancarai lebih daripada 100 pihak terlibat, memperoleh memo dalaman yang sebelum ini tidak pernah diumumkan, serta 200 halaman nota peribadi yang ditinggalkan oleh pendiri Anthropic, Dario Amodei, semasa masa beliau di OpenAI. Cerita yang disusun daripada dokumen-dokumen ini jauh lebih buruk berbanding pertikauan "istana" pada tahun 2023: Bagaimana OpenAI berubah dari sebuah organisasi bukan keuntungan yang dicipta demi keselamatan manusia, secara beransur-ansur menjadi mesin komersial, hampir setiap pagar keselamatan dibongkar oleh seorang individu yang sama.

Kesimpulan Amodei dalam nota itu lebih terus terang: "Masalah OpenAI ialah Sam sendiri."

Penetapan "dosa asal" OpenAI

Untuk memahami kepentingan laporan ini, perlu dijelaskan terlebih dahulu betapa istimewanya syarikat OpenAI.

Pada tahun 2015, Altman dan sekumpulan elit Silicon Valley melakukan sesuatu yang hampir tidak pernah terjadi dalam sejarah perniagaan: menggunakan sebuah organisasi bukan keuntungan untuk membangun teknologi yang mungkin paling kuat dalam sejarah manusia. Tugas pihak pengurusan ditulis dengan jelas: keselamatan diutamakan daripada kejayaan syarikat, bahkan diutamakan daripada kelangsungan hidup syarikat itu sendiri. Dengan kata lain, jika suatu hari AI OpenAI menjadi berbahaya, pihak pengurusan berkewajiban untuk menutup syarikat itu sendiri.

Seluruh kerangka kerja bertumpu pada satu anggapan: orang yang mengendalikan AGI haruslah seseorang yang sangat jujur.

What if you bet incorrectly?

Inti laporan ialah dokumen 70 halaman itu. Sutskever tidak terlibat dalam politik pejabat; beliau adalah salah seorang saintis AI terkemuka di dunia. Tetapi pada tahun 2023, beliau semakin yakin akan satu perkara: Altman terus memberikan maklumat palsu kepada pengurusan tinggi dan jawatankuasa.

Satu contoh spesifik: Pada Disember 2022, Altman menjamin dalam mesyuarat jawatankuasa bahawa beberapa ciri GPT-4 yang akan dilancarkan telah lulus semakan keselamatan. Ahli jawatankuasa Toner meminta melihat dokumen persetujuan, tetapi mendapati dua ciri paling kontroversial (penyesuaian tersuai pengguna dan penghantaran pembantu peribadi) sebenarnya tidak mendapat persetujuan daripada panel keselamatan.

Perkara yang lebih aneh berlaku di India. Seorang pekerja melaporkan "pelanggaran itu" kepada ahli pihak pengurusan lain: Microsoft tidak menyelesaikan semakan keselamatan yang diperlukan sebelum menerbitkan versi awal ChatGPT di India.

Sutskever juga mencatat perkara lain dalam memo tersebut: Altman pernah berkata kepada mantan CTO Mira Murati bahawa proses persetujuan keselamatan tidak begitu penting, kerana pegawai undang-undang utama syarikat telah mengesahkan nya. Murati pergi mengesahkan dengan pegawai undang-undang utama, yang menjawab: "Saya tidak tahu dari mana Sam mendapat kesan ini."

Catatan peribadi Amodei sebanyak 200 halaman

Fail Sutskever seperti surat tuduhan seorang pendakwa. Nota lebih daripada 200 halaman yang ditinggalkan oleh Amodei lebih seperti diary yang ditulis oleh saksi di tempat kejadian.

Dalam beberapa tahun ketika Amodei menjadi ketua keselamatan di OpenAI, beliau menyaksikan perusahaan itu mundur sedikit demi sedikit di bawah tekanan perniagaan. Dalam nota beliau, beliau mencatat butiran penting mengenai pelaburan Microsoft pada 2019: beliau pernah memasukkan klausul "penggabungan dan bantuan" ke dalam perlembagaan OpenAI, yang bermaksud bahawa jika sebarang syarikat lain menemui laluan AGI yang lebih selamat, OpenAI harus berhenti bersaing dan beralih untuk membantu syarikat itu. Ini adalah jaminan keselamatan yang paling penting baginya dalam keseluruhan transaksi tersebut.

Semasa menandatangani dengan pantas, Amodei mendapati satu perkara: Microsoft memperoleh kuasa veto terhadap syarat ini. Apa maksudnya? Sekalipun suatu hari nanti pesaing tertentu menemui jalan yang lebih baik, satu perkataan dari Microsoft boleh menghalang kewajiban OpenAI untuk membantu. Syarat itu masih di atas kertas, tetapi sejak hari penandatanganan, ia sudah menjadi kertas rosak.

Amodei kemudian meninggalkan OpenAI dan menubuhkan Anthropic. Persaingan antara dua syarikat ini berakar pada perbezaan mendasar mengenai "bagaimana AI seharusnya dibangunkan".

Janji 20% pengiraan yang hilang

Satu butir perincian dalam laporan itu, setelah dibaca, membuat rambut tengkuk berdiri, mengenai "pasukan super selari" OpenAI.

Pada pertengahan 2023, Altman menghubungi seorang pelajar doktor yang menyelidik "penyesuaian penipuan" (AI berpura-pura patuh semasa ujian, tetapi bertindak mengikut kehendaknya sendiri semasa pelaksanaan) di Berkeley, menyatakan kebimbangannya yang mendalam terhadap isu ini dan mempertimbangkan untuk menubuhkan hadiah penyelidikan global bernilai 1 miliar dolar AS. Pelajar doktor itu sangat termotivasi, mengambil cuti daripada pengajian, dan menyertai OpenAI.

Kemudian Altman berubah pikiran: tidak memberikan hadiah luar, tetapi membentuk "Pasukan Super Alignment" di dalam perusahaan. Perusahaan mengumumkan secara terbuka bahwa "20% dari kekuatan komputasi yang sudah ada" akan dialokasikan kepada tim ini, dengan nilai potensial melebihi 10 miliar dolar AS. Pernyataan itu dirumuskan dengan sangat serius, menyatakan bahwa jika masalah alignment tidak terselesaikan, AGI dapat menyebabkan "manusia kehilangan kekuasaan, bahkan kepunahan manusia".

Jan Leike, yang dilantik memimpin pasukan ini, kemudian memberitahu wartawan bahawa janji itu sendiri merupakan alat "pengekalan bakat" yang sangat berkesan.

Namun, kenyataannya? Empat orang yang bekerja dalam pasukan ini atau berhubung rapat dengannya mengatakan bahawa kuasa pengiraan yang sebenarnya diperuntukkan hanya 1% hingga 2% daripada jumlah kuasa pengiraan syarikat, dan ia adalah peralatan paling lama. Pasukan ini kemudian dibubarkan tanpa menyelesaikan misinya.

Apabila wartawan meminta temu bual dengan orang yang bertanggungjawab atas penyelidikan "keselamatan eksistensial" di OpenAI, tindakan urusan awam syarikat itu menjadi lucu dan menyedihkan: "Itu bukan sesuatu yang... wujud secara sebenar."

Altman sendiri cukup tenang. Beliau memberitahu wartawan bahawa "intuisinya tidak sejalan dengan banyak perkara keselamatan AI tradisional", tetapi OpenAI masih akan menjalankan "projek keselamatan, atau sekurang-kurangnya projek yang berkaitan dengan keselamatan".

CFO yang diberhentikan dan IPO yang akan datang

Laporan The New Yorker hanyalah separuh daripada berita buruk pada hari itu. Pada hari yang sama, The Information mengungkap berita besar lain: CFO OpenAI, Sarah Friar, mengalami perbezaan serius dengan Altman.

Friar memberitahu rakan sekerja secara peribadi bahawa dia rasa OpenAI belum bersedia untuk disenaraikan tahun ini. Dua sebab: jumlah kerja prosedural dan organisasi yang perlu diselesaikan terlalu besar, dan risiko kewangan akibat janji Altman terhadap perbelanjaan 600 bilion dolar AS dalam kapasiti komputasi dalam tempoh 5 tahun terlalu tinggi. Dia bahkan tidak pasti sama ada pertumbuhan pendapatan OpenAI mampu menanggung janji-janji tersebut.

Namun, Altman ingin mempercepat IPO pada kuartal keempat tahun ini.

Lebih teruk lagi, Friar sudah tidak lagi melapor secara langsung kepada Altman. Mulai Ogos 2025, dia kini melapor kepada Fidji Simo (CEO urusan aplikasi OpenAI). Dan Simo baru sahaja mengambil cuti sakit minggu lepas kerana alasan kesihatan. Anda tengok sendiri situasi ini: sebuah syarikat yang sedang mempercepatkan IPO, dengan CEO dan CFO yang mempunyai perbezaan mendasar, CFO tidak melapor kepada CEO, dan atasan CFO pula sedang cuti.

Pengurus dalaman Microsoft pun tidak mampu membiarkannya, mengatakan bahawa Altman "memutarbelitkan fakta, berubah-ubah, dan terus membatalkan perjanjian yang telah dicapai." Seorang pengurus Microsoft bahkan mengatakan: "Saya rasa ada kemungkinan dia akhirnya akan diingat sebagai penipu sekelas Bernie Madoff atau SBF."

Gambaran "dua muka" Altman

Seorang ahli jawatankuasa OpenAI sebelum ini menerangkan dua ciri Altman kepada wartawan. Perkataan ini mungkin merupakan lukisan peribadi paling tajam dalam keseluruhan laporan.

Dewan ini berkata, Altman memiliki kombinasi sifat yang sangat jarang: dalam setiap interaksi muka ke muka, dia sangat ingin menyenangkan dan disukai oleh orang lain. Pada masa yang sama, dia hampir mengalami gangguan sosial terhadap konsekuensi yang mungkin timbul akibat menipu orang lain.

Dua ciri ini muncul bersamaan pada seseorang, sangat jarang. Tetapi bagi seorang jurujual, ini adalah bakat yang paling sempurna.

Sebuah perumpamaan dalam laporan itu tepat: Jobs terkenal dengan "medan pemutar realiti", yang mampu membuat seluruh dunia percaya pada visinya. Tetapi sekalipun Jobs, beliau tidak pernah berkata kepada pelanggan, "Jika kamu tidak membeli pemain MP3 saya, orang yang kamu cintai akan mati."

Altman pernah mengatakan perkara serupa mengenai AI.

Masalah integriti seorang CEO, mengapa ia adalah risiko semua orang

Jika Altman hanyalah seorang CEO syarikat teknologi biasa, tuduhan-tuduhan ini sekurang-kurangnya hanyalah gosip perniagaan yang menarik. Tetapi OpenAI bukanlah biasa.

Menurut pengakuannya sendiri, ia sedang membangun teknologi paling kuat dalam sejarah manusia, yang mampu membentuk semula ekonomi global dan pasaran tenaga kerja (OpenAI baru sahaja mengeluarkan sebuah white paper dasar mengenai masalah pengangguran akibat AI), serta boleh digunakan untuk menghasilkan senjata biokimia berskala besar atau melancarkan serangan siber.

Semua pagar keselamatan telah menjadi tidak bermakna. Misi bukan keuntungan pendiri telah disingkirkan demi larian kepada IPO. Bekas saintis utama dan bekas tanggungjawab keselamatan kedua-duanya menganggap CEO "tidak boleh dipercayai". Pasangan menggambarkan CEO sebagai SBF. Dalam keadaan ini, apakah dasar yang dimiliki CEO untuk membuat keputusan sepihak tentang kapan menerbitkan model AI yang boleh mengubah nasib manusia?

Gary Marcus (profesor AI Universiti New York, pendokong keselamatan AI jangka panjang) menulis satu ayat setelah membaca laporan itu: Jika model OpenAI masa depan mampu menghasilkan senjata biokimia berskala besar atau melancarkan serangan siber yang merosakkan, adakah anda benar-benar yakin membiarkan Altman membuat keputusan sendiri mengenai sama ada untuk menerbitkannya?

Tanggapan OpenAI terhadap The New Yorker adalah ringkas: "Sebahagian besar artikel ini adalah pengulangan peristiwa yang telah dilaporkan sebelumnya, melalui pernyataan anonim dan kisah pilihan, sumber jelas memiliki tujuan peribadi."

Cara respons Altman: tidak menanggapi tuduhan spesifik, tidak membantah keaslian memo, hanya mempertanyakan motivasi.

Di atas mayat bukan keuntungan, tumbuh sebatang pokok wang.

Sepuluh tahun OpenAI, ditulis sebagai rangka cerita adalah seperti ini:

Sebuah organisasi bukan keuntungan yang didorong misi, yang didirikan oleh para idealis yang prihatin terhadap risiko AI, telah mencapai terobosan teknologi luar biasa. Terobosan itu menarik modal besar. Modal memerlukan pengembalian. Misi mulai memberi jalan. Tim keselamatan dibubarkan. Mereka yang meragukan dibersihkan. Struktur bukan keuntungan diubah menjadi entitas keuntungan. Dewan yang dahulu berwenang menutup perusahaan, kini dipenuhi sekutu CEO. Perusahaan yang dahulu berjanji menyisihkan 20% daya komputasi untuk melindungi keselamatan manusia, kini petugas humasnya mengatakan "itu bukan sesuatu yang nyata".

Subjek cerita, lebih seratus peserta yang mengalami langsung memberinya label yang sama: "tidak terikat pada kebenaran."

Dia sedang bersiap untuk membuat perusahaan ini go public, dengan valuasi melebihi US$850 bilion.

Maklumat dalam artikel ini dikumpulkan daripada laporan awam daripada pelbagai media termasuk The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, dan The Information.

Penafian: Maklumat yang terdapat pada halaman ini mungkin telah diperoleh daripada pihak ketiga dan tidak semestinya menggambarkan pandangan atau pendapat KuCoin. Kandungan ini adalah disediakan bagi tujuan maklumat umum sahaja, tanpa sebarang perwakilan atau waranti dalam apa jua bentuk, dan juga tidak boleh ditafsirkan sebagai nasihat kewangan atau pelaburan. KuCoin tidak akan bertanggungjawab untuk sebarang kesilapan atau pengabaian, atau untuk sebarang akibat yang terhasil daripada penggunaan maklumat ini. Pelaburan dalam aset digital boleh membawa risiko. Sila menilai risiko produk dan toleransi risiko anda dengan teliti berdasarkan keadaan kewangan anda sendiri. Untuk maklumat lanjut, sila rujuk kepada Terma Penggunaan dan Pendedahan Risiko kami.