撰文:小餅,深潮 TechFlow
2023 年秋天,OpenAI 首席科學家 Ilya Sutskever 坐在電腦前,完成了一份 70 頁的文件。
這份文件整理自 Slack 消息記錄、HR 溝通檔案和內部會議紀要,只為回答一個問題:Sam Altman,這個掌管著可能是人類歷史上最危險技術的人,到底能不能被信任?
Sutskever 的答案寫在文件第一页的第一行,列表標題是 "Sam 表現出一貫的行為模式……"
First: Lie.
兩年半後的今天,調查記者 Ronan Farrow 和 Andrew Marantz 在《紐約客》發表了一篇超長調查報導。他們採訪了超過 100 位當事人,取得了此前從未公開的內部備忘錄,以及 Anthropic 創始人 Dario Amodei 在 OpenAI 時期留下的 200 多頁私人筆記。這些文件拼湊出的故事,比 2023 年那場「宮鬥」難看得多:OpenAI 怎樣從一家為人類安全而生的非營利組織,一步步變成商業機器,幾乎每一道安全護欄,都是被同一個人親手拆掉的。
Amodei 在筆記中的結論更直白:「OpenAI 的問題就是 Sam 本人。」
OpenAI 的“原罪”設定
要理解這篇報導的分量,得先說清楚 OpenAI 這家公司有多特殊。
2015 年,Altman 與一群矽谷精英做了一件商業史上幾乎沒有先例的事:以一家非營利組織來開發可能是人類歷史上最強大的技術。董事會的職責寫得非常明確:安全優先於公司的成功,甚至優先於公司的存續。說白了,如果有一天 OpenAI 的 AI 變得危險,董事會有義務親手關閉這家公司。
整套架構押注在一個假設上:掌管 AGI 的人,必須是一個極其誠實的人。
如果押錯了呢?
報導的核心炸彈就是那份 70 頁文件。Sutskever 不搞辦公室政治,他是全球最頂尖的 AI 科學家之一。但到了 2023 年,他越來越確信一件事:Altman 在持續地對高層管理人員和董事會說謊。
一個具體的例子:2022 年 12 月,Altman 在董事會會議上保證,即將發布的 GPT-4 的多項功能已經通過了安全審查。董事會成員 Toner 要求查看審批文件,結果發現其中兩項爭議最大的功能(用戶自定義微調和個人助手部署)根本沒有拿到安全面板的批准。
更離譜的事情在印度發生。一名員工向另一位董事會成員舉報了「那次違規」:微軟未完成必要的安全審查,便在印度提前發布了 ChatGPT 的早期版本。
Sutskever 還在備忘錄中記錄了另一件事:Altman 曾對前 CTO Mira Murati 說,安全審批的流程沒那麼重要,公司法律總顧問已經認可了。Murati 跑去跟法律總顧問確認,對方回了一句:"我不知道 Sam 是從哪裡得出這個印象的。"
Amodei 的 200 頁私人筆記
Sutskever 的文件像一份檢察官起訴書。Amodei 留下的 200 多頁筆記,更像一個目擊者在案發現場寫的日記。
Amodei 在 OpenAI 擔任安全負責人的那幾年,親眼看著公司在商業壓力下一步步後退。他在筆記中記錄了 2019 年微軟投資案的一個關鍵細節:他曾經在 OpenAI 章程中加入了一條「合併與協助」條款,大意是,如果有其他公司找到了更安全的 AGI 路徑,OpenAI 就應停止競爭,轉而去協助那家公司。這是他在整筆交易中最看重的安全保障。
在簽署快速協議時,Amodei 發現了一件事:微軟取得了對此條款的否決權。這是什麼意思?即使有一天某個競爭對手找到了更好的路徑,微軟一句話就能堵死 OpenAI 的協助義務。條款還在紙上,但從簽字那天起就已成為廢紙。
Amodei 後來離開 OpenAI,創立了 Anthropic。兩家公司之間的競爭,底層是關於 "AI 應該怎麼開發" 的根本性分歧。
消失的 20% 算力承諾
報導中有一個細節,讀完讓人後背發涼,關於 OpenAI 的「超級對齊團隊」。
2023 年年中,Altman 郵件聯繫了一位在柏克利研究「欺騙性對齊」(AI 在測試中裝乖、實際部署後搞自己那套)的博士生,說自己非常擔憂這個問題,在考慮設立一個 10 億美元的全球研究獎。博士生很受鼓舞,休了學,加入了 OpenAI。
然後 Altman 改了主意:不搞外部獎項了,在公司內部成立「超級對齊團隊」。公司高調宣布,將把「已有算力的 20%」撥給這個團隊,潛在價值超過 10 億美元。公告措辭極其嚴肅,說如果對齊問題得不到解決,AGI 可能導致「人類被剝奪權力,甚至人類滅絕」。
被任命領導這個團隊的 Jan Leike 後來告訴記者,這個承諾本身就是一个很有效的「人才留存工具」。
現實呢?四位在這個團隊工作或密切接觸的人士說,實際撥給的算力只有公司總算力的 1% 到 2%,還是最老舊的硬體。這個團隊後來被解散,使命未完成。
當記者要求採訪 OpenAI 負責「存在性安全」研究的人員時,公司公關的反應令人哭笑不得:「那不是一個……實際存在的東西。」
Altman 本人倒是坦然。他跟記者說,自己的「直覺跟很多傳統 AI 安全的東西不太合拍」,OpenAI 還是會做「安全項目,或者至少是跟安全沾邊的項目」。
被架空的 CFO 與即將到來的 IPO
《紐約客》的報導只是這一天壞消息的一半。同一天,The Information 爆出另一個重磅消息:OpenAI 的 CFO Sarah Friar 跟 Altman 之間出了嚴重分歧。
Friar 私下告訴同事,她認為 OpenAI 今年還未準備好上市。兩個原因:待完成的程序性和組織性工作量過大,Altman 承諾的 5 年 6000 億美元算力支出帶來的財務風險過高。她甚至不確定 OpenAI 的營收增長能否支撐這些承諾。
但 Altman 想在今年第四季度就衝刺 IPO。
更離譜的是,Friar 已不再直接向 Altman 汇報。自 2025 年 8 月起,她改向 Fidji Simo(OpenAI 應用業務 CEO)匯報。而 Simo 上週剛因健康原因請了病假。你來品品這個局面:一家衝刺 IPO 的公司,CEO 和 CFO 有根本性分歧,CFO 不向 CEO 汇報,CFO 的上級還休假了。
就連微軟內部的高層都看不下去了,說 Altman「歪曲事實、出爾反爾、不斷推翻已達成的協議」。一位微軟高層甚至說了這樣一句話:「我覺得他有一定機率最終會被人們記住為伯尼·麥道夫或 SBF 級別的騙子。」
Altman 的「雙面人」畫像
一位前 OpenAI 董事會成員向記者描述了 Altman 身上的兩種特質。這段話可能是整篇報導裡最狠的人物素描。
這位董事表示,Altman 擁有一種極其罕見的特質組合:他在每一次面對面的交流中,都強烈渴望取悅對方、被對方喜歡;同時,他對欺騙他人可能帶來的後果,則抱有近乎社會病態的無所謂態度。
同時具備這兩種特質的人極為罕見。但對一名推銷員來說,這是最完美的天賦。
報導中有一個比喻說得很好:喬布斯以「現實扭曲力場」聞名,他能讓全世界相信他的願景。但即使是喬布斯,也從來沒有對顧客說過「你不買我的 MP3 播放器,你愛的人都會死」。
Altman 曾說過類似的話,關於 AI。
一個 CEO 的人品問題,為何是每個人的風險
Altman 如果只是一家普通科技公司的 CEO,這些指控充其量只是一個精彩的商業八卦。但 OpenAI 不普通。
根據它自己的說法,它正在開發可能是人類歷史上最強大的技術,能夠重塑全球經濟和勞動力市場(OpenAI 剛剛發布了一份關於 AI 導致失業問題的政策白皮書),也能被用來製造大規模生化武器或發動網絡攻擊。
所有的安全防護措施都名存實亡了。創始人的非營利使命已讓位於對 IPO 的衝刺。前首席科學家和前安全負責人均認定 CEO「不可信」。合作夥伴將 CEO 比作 SBF。在這種情況下,這個 CEO 憑什麼單方面決定何時發布可能改變人類命運的 AI 模型?
Gary Marcus(紐約大學 AI 教授、長期 AI 安全倡導者)在閱讀報導後寫道:如果某個未來的 OpenAI 模型能製造大規模生化武器或發動災難性網絡攻擊,你真的放心讓 Altman 個人決定是否發布嗎?
OpenAI 對《紐約客》的回應倒是簡潔:"這篇文章的大部分內容是在翻炒已報導過的事件,通過匿名說法和有選擇性的軼事,消息源顯然帶有個人目的。"
Altman 的回應方式:不回應具體指控,不否認備忘錄的真實性,只質疑動機。
在非營利的屍體上,長出了一棵搖錢樹
OpenAI 的十年,寫成一個故事大綱是這樣的:
一群擔憂 AI 風險的理想主義者創立了一家以使命為導向的非營利組織。該組織取得了非凡的技術突破。突破吸引了巨額資本。資本需要回報。使命開始讓路。安全團隊被解散了。質疑者被清洗了。非營利架構改為營利實體。曾經有權關閉公司的董事會,如今滿是 CEO 的盟友。曾經承諾拿出 20% 算力守護人類安全的公司,現在其公關人員卻表示「那不是一個實際存在的東西」。
故事的主角,一百多位親歷者給了他同一個標籤:"不受真相約束。"
他正準備帶這家公司 IPO,估值超過 8500 億美元。
本文資訊綜合自《紐約客》、Semafor、Tech Brew、Gizmodo、Business Insider、The Information 等多家媒體的公開報導。
