Artikel oleh Xiao Bing, Shenchao TechFlow
Pada musim gugur 2023, ilmuwan utama OpenAI, Ilya Sutskever, duduk di depan komputer dan menyelesaikan sebuah dokumen berisi 70 halaman.
Dokumen ini disusun dari rekaman pesan Slack, arsip komunikasi SDM, dan notulen rapat internal, semata-mata untuk menjawab satu pertanyaan: Apakah Sam Altman, orang yang mengendalikan kemungkinan teknologi paling berbahaya dalam sejarah manusia, dapat dipercaya?
Jawaban Sutskever ditulis di baris pertama halaman pertama file, dengan judul daftar "Sam menunjukkan pola perilaku konsisten..."
First: Lie.
Hari ini, dua setengah tahun kemudian, jurnalis investigasi Ronan Farrow dan Andrew Marantz menerbitkan laporan investigasi panjang di The New Yorker. Mereka mewawancarai lebih dari 100 pihak terkait, mendapatkan memo internal yang sebelumnya tidak pernah dipublikasikan, serta lebih dari 200 halaman catatan pribadi dari Dario Amodei, pendiri Anthropic, yang dibuat selama masa kerjanya di OpenAI. Cerita yang disusun dari dokumen-dokumen ini jauh lebih buruk daripada "perang istana" tahun 2023: Bagaimana OpenAI berubah dari organisasi nirlaba yang didirikan demi keselamatan manusia, secara bertahap menjadi mesin komersial, hampir setiap pengaman keamanan dihancurkan oleh orang yang sama.
Kesimpulan Amodei dalam catatan itu lebih langsung: "Masalah OpenAI adalah Sam sendiri."
Penetapan "dosa asli" OpenAI
Untuk memahami betapa pentingnya laporan ini, pertama-tama perlu dijelaskan betapa istimewanya perusahaan OpenAI ini.
Pada tahun 2015, Altman dan sekelompok elit Silicon Valley melakukan sesuatu yang hampir tidak pernah terjadi dalam sejarah bisnis: menggunakan organisasi nirlaba untuk mengembangkan teknologi yang mungkin merupakan yang paling kuat dalam sejarah manusia. Tugas dewan direksi ditulis dengan jelas: keamanan diutamakan daripada keberhasilan perusahaan, bahkan diutamakan daripada kelangsungan hidup perusahaan. Dengan kata lain, jika suatu hari AI OpenAI menjadi berbahaya, dewan direksi berkewajiban untuk menutup perusahaan itu sendiri.
Seluruh arsitektur bergantung pada asumsi bahwa orang yang mengendalikan AGI haruslah seseorang yang sangat jujur.
Bagaimana jika tebakan Anda salah?
Inti laporan adalah dokumen 70 halaman itu. Sutskever tidak terlibat dalam politik kantor, ia adalah salah satu ilmuwan AI terkemuka di dunia. Namun, pada tahun 2023, ia semakin yakin akan satu hal: Altman terus-menerus berbohong kepada manajemen dan dewan direksi.
Contoh spesifik: Pada Desember 2022, Altman menjamin di rapat dewan bahwa beberapa fitur GPT-4 yang akan segera dirilis telah melewati tinjauan keamanan. Anggota dewan Toner meminta melihat dokumen persetujuan, dan ternyata dua fitur paling kontroversial (fine-tuning yang disesuaikan pengguna dan penyebaran asisten pribadi) sama sekali tidak mendapat persetujuan dari panel keamanan.
Hal yang lebih aneh terjadi di India. Seorang karyawan melaporkan "pelanggaran tersebut" kepada anggota dewan lainnya: Microsoft merilis versi awal ChatGPT di India sebelum menyelesaikan tinjauan keamanan yang diperlukan.
Sutskever juga mencatat hal lain dalam memo tersebut: Altman pernah mengatakan kepada mantan CTO Mira Murati bahwa proses persetujuan keamanan tidak terlalu penting, karena penasihat hukum perusahaan telah menyetujuinya. Murati langsung memverifikasi hal ini dengan penasihat hukum perusahaan, yang menjawab: "Saya tidak tahu dari mana Sam mendapatkan kesan ini."
Catatan pribadi Amodei sebanyak 200 halaman
Dokumen Sutskever seperti sebuah dakwaan jaksa. Catatan lebih dari 200 halaman yang ditinggalkan Amodei lebih seperti sebuah jurnal yang ditulis oleh saksi mata di tempat kejadian.
Selama beberapa tahun Amodei menjabat sebagai kepala keamanan di OpenAI, ia menyaksikan perusahaan tersebut mundur selangkah demi selangkah di bawah tekanan bisnis. Ia mencatat detail penting dari investasi Microsoft pada 2019: ia pernah menyisipkan ketentuan "penggabungan dan bantuan" dalam anggaran dasar OpenAI, yang intinya adalah jika perusahaan lain menemukan jalur AGI yang lebih aman, OpenAI harus menghentikan persaingan dan beralih membantu perusahaan tersebut. Ini adalah jaminan keamanan yang paling ia prioritaskan dalam seluruh transaksi tersebut.
Saat menandatangani transaksi cepat, Amodei menemukan satu hal: Microsoft memperoleh hak veto atas ketentuan ini. Apa artinya? Bahkan jika suatu hari nanti pesaing tertentu menemukan jalur yang lebih baik, Microsoft cukup mengatakan satu kalimat untuk menutup kewajiban bantuan OpenAI. Ketentuan itu masih tertulis di atas kertas, tetapi sejak hari penandatanganan, ia sudah menjadi kertas tak bernilai.
Amodei kemudian meninggalkan OpenAI dan mendirikan Anthropic. Persaingan antara kedua perusahaan tersebut pada dasarnya berasal dari perbedaan mendasar mengenai "bagaimana AI seharusnya dikembangkan".
Janji daya komputasi 20% yang hilang
Ada satu detail dalam laporan itu yang membuat merinding setelah membacanya, tentang "tim super alignment" OpenAI.
Pada pertengahan 2023, Altman mengirim email kepada seorang mahasiswa doktoral di Berkeley yang meneliti "deceptive alignment" (AI berperilaku patuh saat diuji, tetapi bertindak sesuai keinginannya sendiri setelah diluncurkan), mengatakan bahwa ia sangat khawatir tentang masalah ini dan sedang mempertimbangkan untuk mendirikan hadiah penelitian global senilai 1 miliar dolar AS. Mahasiswa doktoral tersebut termotivasi, mengambil cuti kuliah, dan bergabung dengan OpenAI.
Kemudian Altman berubah pikiran: tidak memberikan penghargaan eksternal, melainkan membentuk "Tim Super Alignment" di dalam perusahaan. Perusahaan secara resmi mengumumkan bahwa "20% dari kekuatan komputasi yang sudah ada" akan dialokasikan untuk tim ini, dengan nilai potensial melebihi 10 miliar dolar AS. Pernyataan itu dirumuskan dengan sangat serius, menyatakan bahwa jika masalah alignment tidak teratasi, AGI dapat menyebabkan "manusia kehilangan kekuasaan, bahkan kepunahan manusia".
Jan Leike, yang ditunjuk untuk memimpin tim ini, kemudian memberi tahu wartawan bahwa komitmen itu sendiri merupakan alat "retensi bakat" yang sangat efektif.
Lalu bagaimana kenyataannya? Empat orang yang bekerja di tim ini atau berinteraksi dekat dengannya mengatakan bahwa daya komputasi yang benar-benar dialokasikan hanya 1% hingga 2% dari total daya komputasi perusahaan, dan masih menggunakan perangkat keras paling usang. Tim ini kemudian dibubarkan, dan misinya tidak selesai.
Ketika wartawan meminta wawancara dengan staf OpenAI yang bertanggung jawab atas penelitian "keamanan eksistensial", respons humas perusahaan itu membuat orang tertawa sekaligus menangis: "Itu bukan sesuatu yang... benar-benar ada."
Altman sendiri justru tenang. Ia mengatakan kepada wartawan bahwa "intuisinya tidak selaras dengan banyak hal terkait keamanan AI tradisional", tetapi OpenAI tetap akan melakukan "proyek keamanan, atau setidaknya proyek yang terkait dengan keamanan".
CFO yang diabaikan dan IPO yang akan datang
Laporan The New Yorker hanyalah separuh dari berita buruk hari itu. Pada hari yang sama, The Information mengungkapkan berita besar lainnya: CFO OpenAI, Sarah Friar, memiliki perbedaan serius dengan Altman.
Friar secara pribadi memberi tahu rekan kerjanya bahwa ia merasa OpenAI belum siap untuk go public tahun ini. Dua alasan: jumlah pekerjaan prosedural dan organisasional yang harus diselesaikan terlalu besar, dan risiko keuangan dari komitmen Altman untuk pengeluaran daya komputasi 600 miliar dolar AS dalam 5 tahun terlalu tinggi. Ia bahkan tidak yakin pertumbuhan pendapatan OpenAI dapat menopang komitmen-komitmen tersebut.
Namun Altman ingin meluncurkan IPO pada kuartal keempat tahun ini.
Yang lebih aneh lagi, Friar sudah tidak lagi melapor langsung kepada Altman. Mulai Agustus 2025, ia kini melapor kepada Fidji Simo (CEO bisnis aplikasi OpenAI). Dan Simo baru saja mengambil cuti sakit minggu lalu karena alasan kesehatan. Coba Anda renungkan situasi ini: sebuah perusahaan yang sedang menuju IPO, dengan CEO dan CFO yang memiliki perbedaan mendasar, CFO tidak melapor kepada CEO, dan atasan CFO pun sedang cuti.
Manajer internal Microsoft pun tidak bisa lagi membiarkannya, mengatakan bahwa Altman "memutarbalikkan fakta, berubah pikiran, dan terus membatalkan kesepakatan yang telah dicapai." Seorang manajer Microsoft bahkan mengatakan: "Saya merasa ada kemungkinan dia akhirnya akan diingat sebagai penipu selevel Bernie Madoff atau SBF."
Gambar "dua wajah" Altman
Seorang mantan anggota dewan OpenAI menggambarkan dua sifat pada Altman kepada wartawan. Kalimat ini mungkin merupakan gambaran karakter paling tajam dalam seluruh laporan tersebut.
Direktur ini mengatakan bahwa Altman memiliki kombinasi sifat yang sangat langka: dalam setiap interaksi tatap muka, ia sangat ingin menyenangkan dan disukai oleh lawan bicaranya. Sebaliknya, ia hampir mengalami ketidakpedulian sosial terhadap konsekuensi yang mungkin timbul dari penipuan terhadap orang lain.
Dua kualitas ini muncul bersamaan pada seseorang, sangat jarang. Tetapi bagi seorang penjual, ini adalah bakat paling sempurna.
Sebuah perumpamaan dalam laporan itu tepat: Jobs terkenal dengan "medan distorsi realitas"-nya, yang membuat seluruh dunia percaya pada visinya. Namun bahkan Jobs pun tidak pernah berkata kepada pelanggan, "Jika kamu tidak membeli pemutar MP3 saya, orang-orang yang kamu cintai akan mati."
Altman pernah mengatakan hal serupa tentang AI.
Masalah karakter seorang CEO, mengapa menjadi risiko bagi semua orang
Jika Altman hanyalah CEO perusahaan teknologi biasa, tuduhan ini paling-paling hanyalah gosip bisnis yang menarik. Tetapi OpenAI tidak biasa.
Menurut klaimnya sendiri, ia sedang mengembangkan teknologi paling kuat dalam sejarah manusia, yang dapat membentuk ulang ekonomi global dan pasar tenaga kerja (OpenAI baru saja merilis white paper kebijakan tentang masalah pengangguran yang disebabkan oleh AI), serta dapat digunakan untuk membuat senjata biokimia skala besar atau melakukan serangan siber.
Semua perlindungan keamanan telah kehilangan maknanya. Misi nirlaba pendiri telah digantikan oleh lomba menuju IPO. Mantan ilmuwan kepala dan mantan kepala keamanan menyatakan CEO "tidak dapat dipercaya". Mitra membandingkan CEO dengan SBF. Dalam situasi seperti ini, apa yang membuat CEO ini berhak menentukan sendiri kapan harus merilis model AI yang bisa mengubah takdir umat manusia?
Gary Marcus (profesor AI di New York University, aktivis jangka panjang keamanan AI) menulis satu kalimat setelah membaca laporan tersebut: Jika suatu model OpenAI masa depan mampu membuat senjata biokimia skala besar atau melancarkan serangan siber yang bencana, apakah Anda benar-benar yakin membiarkan Altman sendiri yang memutuskan apakah akan merilisnya atau tidak?
Respons OpenAI terhadap The New Yorker adalah singkat: "Sebagian besar artikel ini hanya mengulang peristiwa yang sudah dilaporkan, menggunakan pernyataan anonim dan anekdot selektif, dengan sumber yang jelas memiliki tujuan pribadi."
Cara Altman merespons: tidak menanggapi tuduhan spesifik, tidak membantah keaslian memo, hanya mempertanyakan motivasinya.
Di atas tubuh nirlaba, tumbuhlah pohon uang.
Sepuluh tahun OpenAI, ditulis sebagai kerangka cerita adalah seperti ini:
Sekelompok idealis yang khawatir akan risiko AI mendirikan sebuah organisasi nirlaba yang berorientasi pada misi. Organisasi tersebut mencapai terobosan teknis luar biasa. Terobosan itu menarik modal besar. Modal membutuhkan pengembalian. Misi mulai mengalah. Tim keamanan dibubarkan. Para pencetus pertanyaan dibersihkan. Struktur nirlaba diubah menjadi entitas profit. Dewan yang dulunya berwenang menutup perusahaan, kini dipenuhi sekutu CEO. Perusahaan yang dulu berjanji menyisihkan 20% daya komputasi untuk melindungi keselamatan manusia, kini petugas humasnya mengatakan "itu bukan sesuatu yang nyata".
Tokoh utama cerita, lebih dari seratus saksi mata memberinya label yang sama: "tidak terikat pada kebenaran."
Dia sedang mempersiapkan perusahaan ini untuk IPO, dengan valuasi lebih dari 850 miliar dolar AS.
Informasi dalam artikel ini dikumpulkan dari laporan publik dari berbagai media seperti The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, dan The Information.
