Isulat ni Xiao Bing, Shenchao TechFlow
Noong taglagas ng 2023, nakaupo ang pangunahing siyentipiko ng OpenAI, si Ilya Sutskever, sa harap ng kanyang computer at natapos ang isang 70-pahina na dokumento.
Ipinagsasama ng dokumentong ito ang mga mensahe sa Slack, mga rekord ng komunikasyon sa HR, at mga minuta ng mga pambansang pagpupulong, lamang upang sagutin ang isang tanong: Maaari bang tiyakin si Sam Altman, ang tao na namamahala sa posibleng pinakamapanganib na teknolohiya sa kasaysayan ng sangkatauhan?
Ang sagot ni Sutskever, isinulat sa unang linya ng unang pahina ng file, ang pamagat ng lista ay "Sam exhibits a consistent pattern of behavior..."
First: Lying.
Ngayon, dalawang taon at kalahati ang nakalipas, ang mga reporter na si Ronan Farrow at Andrew Marantz ay naglabas ng isang mahabang imbestigasyon sa The New Yorker. Ipinagsasalita nila ang higit sa 100 mga sangkot, at nakakuha sila ng mga loob na memo na dating hindi pa nagawa, pati na rin ang higit sa 200 pahina ng personal na tala ni Dario Amodei, ang tagapagtatag ng Anthropic, mula sa kanyang panahon sa OpenAI. Ang kuwento na binuo ng mga dokumentong ito ay mas masamang kaysa sa "paligsahan sa palasyo" noong 2023: paano naging isang komersyal na makina ang OpenAI mula sa isang di-pang-ekonomiya na organisasyon na itinatag para sa kaligtasan ng tao, at kung paano ang bawat isa sa mga pader ng kaligtasan ay tinanggal ng isang tao lamang.
Mas direkta ang konklusyon ni Amodei sa mga tala: "Ang problema ng OpenAI ay si Sam mismo."
Ang "original sin" setting ng OpenAI
Upang maunawaan ang kahalagahan ng ulat na ito, kailangan muna nating ipaliwanag kung gaano kakaibang kompanya ang OpenAI.
Noong 2015, ginawa ni Altman at isang grupo ng mga eksperto mula sa Silicon Valley ang isang bagay na kahit saan sa kasaysayan ng negosyo ay halos walang katulad: ginamit nila ang isang non-profit organization upang pag-unlad ang posibleng pinakamalakas na teknolohiya sa kasaysayan ng tao. Malinaw ang mga tungkulin ng board: ang kaligtasan ay mas mataas kaysa sa tagumpay ng kumpanya, kahit kaysa sa pagpapanatili nito. Sa madaling salita, kung isang araw ay maging mapanganib ang AI ng OpenAI, may obligasyon ang board na sarhing sarili nilang i-close ang kumpanya.
Ang buong arkitektura ay nagtataya sa isang aksiyoma: ang taong nangangasiwa sa AGI ay dapat isang napakaseryoso at tapat na tao.
Kung mali ang iyong taya?
Ang pangunahing pambobomba sa ulat ay ang 70-pahinang dokumento. Hindi sumasali ang Sutskever sa politika sa opisina, siya ay isa sa mga pinakamahuhusay na siyentipiko sa AI sa buong mundo. Ngunit noong 2023, lalong naniniwala siya sa isang bagay: patuloy na nagpapalit ng maling impormasyon si Altman sa mga tagapamahala at board.
Isang tiyak na halimbawa: noong Disyembre 2022, siniguro ni Altman sa isang pagpupulong ng board na ang ilang mga tampok ng darating na GPT-4 ay napanalunan na ang pagsusuri sa kaligtasan. Hiningi ni Toner, isang miyembro ng board, ang mga dokumento ng pagpapahintulot, at natuklasan niya na ang dalawang pinakamalalaking kontrobersyal na tampok (user-defined fine-tuning at deployment ng personal assistant) ay hindi nagkaroon ng pahintulot mula sa safety panel.
Mas kakaibang nangyari sa India. Isang empleyado ang nag-report sa isang iba pang miyembro ng board tungkol sa "paglabag na iyon": hindi natapos ng Microsoft ang kinakailangang pagsusuri sa kaligtasan bago ipinakilala ang maagang bersyon ng ChatGPT sa India.
Isinulat pa ni Sutskever ang isa pang bagay sa talaan: Sinabi ni Altman sa dating CTO na si Mira Murati na ang proseso ng pagpapahintulot sa kaligtasan ay hindi gaanong mahalaga, dahil pinagtibay na ito ng pangkalahatang abogado ng kumpanya. Kumilala si Murati sa pangkalahatang abogado, at sumagot ito: "Hindi ko alam kung saan nakuha ni Sam ang impresyon na iyon."
200-page private notes ni Amodei
Ang mga dokumento ni Sutskever ay parang isang pag-aresto ng prosecutor. Ang mga 200+ pahina ng mga tala ni Amodei ay mas parang isang diary na isinulat ng isang saksi sa lugar ng krimen.
Noong panahon na si Amodei ay nagsilbing tagapangasiwa ng kaligtasan sa OpenAI, sinaksihan niya kung paano unti-unting bumabagsak ang kompanya dahil sa presyong pangkalakalan. Isinulat niya sa mga tala ang isang mahalagang detalye tungkol sa pag-invest ng Microsoft noong 2019: may nilagay siyang "pagsasama at pagtutulungan" na klausula sa charter ng OpenAI, na nangangahulugan na kung may ibang kompanya ang makakahanap ng mas ligtas na landas patungo sa AGI, dapat huminto ang OpenAI sa pakikidigma at magtulungan sa kompanyang iyon. Ito ang pinakamahalagang pangako sa kaligtasan na pinahalagahan niya sa buong transaksyon.
Sa pag-sign ng trade, nakita ni Amodei ang isang bagay: ang Microsoft ay nakakuha ng right ng veto sa kautusan. Ano ang ibig sabihin nito? Kahit na isang araw ay makahanap ang isang kalaban ng mas mabuting paraan, isang salita lang ng Microsoft ang makakapigil sa obligasyon ng OpenAI na tumulong. Nasa papel pa ang kautusan, ngunit mula sa araw ng pag-sign, ito ay isang walang halagang papel.
Umuwi si Amodei mula sa OpenAI at itinatag ang Anthropic. Ang pakikidigma sa pagitan ng dalawang kumpanya ay batay sa pangunahing pagkakaiba-iba tungkol sa "paano dapat pangunahin ang AI".
Nawawalang 20% na commitment sa computing power
May detalye sa ulat na nag-iisip ng takot sa likod pagkatapos basahin ito, tungkol sa "super alignment team" ng OpenAI.
Mid-2023, nag-email ang Altman sa isang doktorante na nag-aaral sa Berkeley tungkol sa "deceptive alignment" (kung paano ang AI ay nagpapakita ng mabuting pag-uugali sa pagsubok ngunit gumagawa ng sariling paraan pagkatapos ipagpatuloy), at sinabi niya na sobrang nag-aalala siya sa problema na ito at isinasaalang-alang ang pagtatatag ng isang 1 bilyong dolyar na pandaigdigang grant para sa pananaliksik. Naging inspirado ang doktorante, tumigil sa pag-aaral, at sumali sa OpenAI.
Pagkatapos ay binago ni Altman ang kaniyang desisyon: hindi na magkakaroon ng mga panlabas na parangal, kundi itatatag ang isang "Super Alignment Team" sa loob ng kumpanya. Ang kumpanya ay pinauunawa nang malakas na magdededikasyon ng "20% ng umiiral na computing power" sa koponan, na may potensyal na halaga na hihigit sa $1 bilyon. Ang pahayag ay isinulat nang napakaseryoso, na sinasabi na kung hindi masosolusyonan ang problema ng alignment, maaaring magdulot ng AGI ng "pagkawala ng kapangyarihan ng tao, o kaya'y pagkawala ng sangkatauhan."
Sinabi ni Jan Leike, na inilagay sa pamumuno ng koponan, sa mga reporter na ang pagkakasundo mismo ay isang napakaepektibong "tool para sa pagpapanatili ng talento".
Ano naman ang katotohanan? Sinasabi ng apat na tao na nagtrabaho sa tim o malapit sa kanila na ang tunay na ibinigay na computing power ay lamang 1% hanggang 2% ng kabuuang computing power ng kumpanya, at ito ay ang pinakaluma na hardware. Tinanggal ang tim pagkatapos, at hindi natupad ang misyon.
Kapag hiningi ng mga reporter ang isang pagsasaliksik sa mga taong nag-aaral ng "existential safety" ng OpenAI, ang reaksyon ng public relations ng kumpanya ay nakakatawa at nakakalungkot: "Hindi iyon isang... tunay na bagay."
Kahit ganun, si Altman ay nagpapakita ng kalmado. Sinabi niya sa mga reporter na ang kanyang "intuisyon ay hindi gaanong sumasalamin sa maraming tradisyonal na mga aspeto ng AI safety," at ang OpenAI ay patuloy na gagawa ng "mga proyekto tungkol sa safety, o kaya'y mga proyekto na may kinalaman sa safety."
Ang naiwan na CFO at ang darating na IPO
Ang ulat ng The New Yorker ay kalahati lang ng masamang balita sa araw na iyon. Sa parehong araw, binuksan ng The Information ang isa pang malaking balita: may malubhang pagkakaibigan sa pagitan ng CFO ng OpenAI, Sarah Friar, at si Altman.
Sinabi ng Friar sa kanyang mga kasamahan nang pribado na hindi pa handa ang OpenAI na mag-IPO sa taong ito. Dalawang dahilan: sobrang dami ng mga proseso at organisasyonal na gawain na kailangang tapusin, at sobrang mataas ang pondo risk na dulot ng pangako ni Altman na mag-spent ng $600 bilyon sa computing power sa loob ng 5 taon. Hindi pa sigurado kung ang paglago ng kita ng OpenAI ay makakatugon sa mga pangako na ito.
Ngunit nais ni Altman na makamit ang IPO sa ikalawang kuartal ng taong ito.
Mas kakaibang bagay ay ang pagiging hindi na direktang nagrereport si Friar kay Altman. Mula sa Agosto 2025, nagrereport na siya kay Fidji Simo (CEO ng Application Business ng OpenAI). At si Simo ay nagsimula na lang ng medical leave noong nakaraang linggo dahil sa kalusugan. Tingnan mo ang sitwasyong ito: isang kumpanya na nagpapabilis para sa IPO, kung saan may malalim na pagkakaiba-iba ang CEO at CFO, ang CFO ay hindi nagrereport sa CEO, at ang boss ng CFO ay nasa medical leave.
Hindi na kayang titigilan ng mga tagapagpaganap sa loob ng Microsoft ang pagkilos ni Altman na "panggagawang mali, magbabago-bago, at paulit-ulit na pagbabale-wala sa mga nakaayos na kasunduan." Isang tagapagpaganap sa Microsoft ay nagsabi ng ganito: "Naniniwala ako na mayroon siyang tiyak na posibilidad na tandaan siya sa huli bilang isang manliligaw na katulad ni Bernie Madoff o SBF."
Ang larawan ng "dalawang mukha" ni Altman
Isinampa ng isang dating miyembro ng board ng OpenAI sa mga reporter ang dalawang katangian ni Altman. Maaaring ito ang pinakamalalim na larawan ng karakter sa buong ulat.
Sinabi ng tagapangulo na mayroon si Altman ng isang napakakakaibang kombinasyon ng katangian: sa bawat pagkakataong面对面 na pag-uusap, malakas niyang nais na pagsuyugin at maging minahal ng kausap. Samantala, walang pag-aalala siya sa mga posibleng epekto ng pagmamaliit sa iba—isang halos sosyal na pagkakasakit.
Sangat makakarami ang dalawang katangiang ito na nagkakasama sa isang tao. Ngunit para sa isang tagapagbebenta, ito ang pinakamahusay na biyaya.
May isang metapora sa ulat na mabuti: kilala si Jobs sa kanyang "reality distortion field," na nagpapahintulot sa kanya na gawing maniwala ang buong mundo sa kanyang pangarap. Ngunit kahit si Jobs ay hindi nagpapahayag sa mga customer na "kung hindi mo binibili ang aking MP3 player, mamamatay ang lahat ng iyong minamahal."
Sinabi ni Altman ang katulad na mga salita tungkol sa AI.
Bakit isang panganib para sa lahat ang isyu ng karakter ng isang CEO?
Kung si Altman ay isang karaniwang CEO ng isang teknolohiyang kumpanya, ang mga akusasyong ito ay kahit na isang magandang balita sa negosyo. Ngunit hindi karaniwan ang OpenAI.
Ayon sa sarili nitong pahayag, ito ay nagpapalawak ng posibleng pinakamalakas na teknolohiya sa kasaysayan ng tao. Maaari itong muling ihayag ang pandaigdigang ekonomiya at thịko ng puwersa ng paggawa (tulad ng bagong ipinakalabas na papolitika ng OpenAI tungkol sa pagkawala ng trabaho dahil sa AI), at maaari ring gamitin upang lumikha ng malalaking biyolohikal at kimikal na armas o mag-atake sa cyber.
Nawala na ang lahat ng mga safety guard. Ang non-profit na misyon ng founder ay napalitan ng paghahabol sa IPO. Tinutukoy ng dating chief scientist at dating head of security ang CEO bilang "hindi mapagkakatiwalaan". Ikinukumpara ng mga kasosyo ang CEO kay SBF. Sa ganitong sitwasyon, bakit dapat ng isang tao lamang ang desisyunan kung kailan ilabas ang isang AI model na maaaring magbago sa kapalaran ng sangkatauhan?
Isinulat ni Gary Marcus (propesor ng AI sa New York University, matagal nang tagapagtaguyod ng AI safety) isang pangungusap pagkatapos basahin ang ulat: Kung ang isang darating na OpenAI model ay makakagawa ng malawakang biokemikal na sandata o magpapalabas ng malubhang cyber attack, talagang mapapahinga ka na si Altman ang magpapasya kung i-publish o hindi?
Ang tugon ng OpenAI sa The New Yorker ay simpleng: "Ang karamihan sa artikulong ito ay nag-uulit ng mga nareport na pangyayari, gamit ang mga pahayag na anonymous at pili-piling kuwento, kung saan ang mga pinagkunan ay may personal na layunin."
Ang paraan ng pagtugon ni Altman: hindi tumutugon sa mga partikular na akusasyon, hindi tinatakalang ang katotohanan ng memorandum, kundi nagtatanong lamang sa motibo.
Sa katawan ng non-profit, lumabas ang isang puno ng pera
Ang sampung taon ng OpenAI, isinusulat bilang isang outline ng kuwento ay ganito:
Isang grupo ng mga idealista na nag-aalala sa mga panganib ng AI ay nagtatag ng isang non-profit na organisasyon na may misyon. Nagsagawa ang organisasyon ng isang malaking teknikal na pagbubukas. Tinanggap ng pagbubukas ang malaking kapital. Kailangan ng kapital ang return. Ang misyon ay nagsimulang magbigay-daan. Tinanggal ang security team. Tinanggal ang mga nagtatanong. Ginawang for-profit ang non-profit structure. Ang dating board na may kapangyarihang pagsara sa kompanya, ay ngayon puno ng mga kaalyado ng CEO. Ang kompanya na dating nagpangako na maglalabas ng 20% ng computing power para sa kaligtasan ng tao, ay ngayon sinasabi ng kanilang PR na "hindi ito isang tunay na bagay".
Ang pangunahing tauhan ng kuwento, ang higit sa isang daan na mga saksi ay nagbigay sa kanya ng iisang label: "Hindi nakakabigay sa katotohanan."
Naghahanda siya para ipa-IPO ang kumpanya na may halagang higit sa 850 bilyong dolyar.
Ang impormasyon sa artikulong ito ay kinokompyut mula sa mga pampublikong ulat ng The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information, at iba pang media.
