執筆:小餅、深潮 TechFlow
2023年秋、OpenAIのチーフサイエンティストであるIlya Sutskeverがコンピュータの前に座り、70ページの文書を完成させた。
この文書は、Slackのメッセージ記録、HRとのコミュニケーションアーカイブ、および内部会議の議事録から整理されたものであり、唯一の目的は、おそらく人類の歴史で最も危険な技術を統括するSam Altmanを信頼できるかどうかという問いに答えることです。
Sutskeverの回答は、ファイルの最初のページの最初の行に記載されており、リストのタイトルは「Samは一貫した行動パターンを示している……」です。
第一条:嘘をつく。
今日、2年半が経過したが、調査ジャーナリストのロナン・ファローとアンドリュー・マランツは『ニューヨーカー』に長大な調査報道を掲載した。100人以上の関係者をインタビューし、これまで公開されていなかった内部メモや、Anthropicの創設者であるダリオ・アモデイがOpenAI在籍中に残した200ページを超える個人的なノートを入手した。これらの文書から明らかになった事実は、2023年の「宮廷闘争」よりもはるかに不快なものだった:OpenAIは、人間の安全のために設立された非営利団体から、どのようにして商業的機械へと変貌し、ほぼすべてのセキュリティ対策が、同じ人物によって自ら取り外されていったのか。
Amodeiはノートでより率直に結論づけた:「OpenAIの問題はSam自身だ。」
OpenAIの「原罪」設定
この報道の重みを理解するには、OpenAIという会社がいかに特別であるかを明確に説明する必要があります。
2015年、Altmanと一連のシリコンバレーのエリートたちは、商業史に前例のない行動を取った。彼らは、おそらく人類史上最も強力な技術を開発するために、非営利団体を設立した。取締役会の役割は明確に定められており、会社の成功や存続よりも安全性が優先される。言い換えれば、OpenAIのAIが危険になると判断された日には、取締役会は自ら会社を閉鎖する義務を負う。
このアーキテクチャ全体は、AGIを管理する人物が極めて正直であるという仮定に依存している。
間違えて押してしまったら?
核心の爆弾は、70ページの文書だった。サツケバーはオフィス政治をしないが、世界で最も優れたAI科学者の一人である。しかし2023年までに、彼は次第に確信を深めた:アルトマンは経営陣や取締役会に対して一貫して嘘をついているということを。
具体的例として、2022年12月、Altmanは取締役会の会議で、リリース予定のGPT-4の複数の機能がセキュリティ審査を通過したと保証しました。取締役会メンバーのTonerは承認文書の閲覧を要求し、その結果、最も議論を呼んだ2つの機能(ユーザーによるカスタムファインチューニングとパーソナルアシスタントのデプロイ)は、セキュリティパネルの承認を受けていないことが判明しました。
よりひどい出来事がインドで起こった。ある従業員が、マイクロソフトが必要なセキュリティレビューを完了せずにインドでChatGPTの早期バージョンをリリースしたという「その違反行為」を他の取締役に通報した。
Sutskeverはメモに別の出来事を記録していた:Altmanは元CTOのMira Muratiに、セキュリティ承認プロセスはそれほど重要ではなく、会社の法務総顧問が承認済みだと述べた。Muratiは法務総顧問に確認したところ、彼は「Samがそのような印象を得たのはどこからか分からない」と返答した。
アモデイの200ページのプライベートノート
サツケバーの文書は検察官の起訴書のようだ。アモデイが残した200ページ以上のノートは、犯罪現場で目撃者が書いた日記のようだ。
Amodeiは、OpenAIでセキュリティ責任者を務めていた数年間、会社が商業的圧力の下で段階的に後退する様子を目の当たりにした。彼のノートには、2019年のマイクロソフトの投資に関する重要な詳細が記されている:彼はOpenAIの定款に「合併および支援」条項を組み込み、他の企業がより安全なAGIの道を見出した場合、OpenAIは競争をやめてその企業を支援すべきであるという内容にした。これは、彼がこの取引で最も重視したセキュリティの保証だった。
署名時にAmodeiは一つの事実に気づいた:マイクロソフトがこの条項に対する拒否権を獲得していた。これはどういう意味か?たとえ将来、ある競合他社がより優れた道を見つけたとしても、マイクロソフトの一言でOpenAIの協力義務を完全に封じることができる。条項は紙の上に残っているが、署名した日からすでに無効な紙切れとなった。
アモデイはその後OpenAIを去り、Anthropicを設立した。両社間の競争は、「AIをどのように開発すべきか」という根本的な意見の相違に基づいている。
消えた20%の算力約束
報道には一つの細部があり、読んだ後、背筋が凍るような思いがする。OpenAIの「スーパーアライメントチーム」についてだ。
2023年半ば、Altmanは、バークレーで「欺瞞的アライメント」(AIがテスト中は従順に振る舞い、実際の展開後は独自の行動を取る)を研究している博士課程の学生にメールを送り、この問題に非常に懸念を抱いており、10億ドルのグローバル研究賞を設立することを検討していると伝えた。博士課程の学生は鼓舞され、休学してOpenAIに参加した。
その後、アルトマンは考えを変えて、外部賞を設けず、社内に「スーパーアラインメントチーム」を設立することにした。同社は、既存の計算リソースの20%をこのチームに割り当てるとして、その潜在的価値は10億ドル以上であると公表した。発表文は極めて真剣な口調で、アラインメント問題が解決されない場合、AGIは「人類の権力剥奪、さらには人類の絶滅」を引き起こす可能性があると述べている。
このチームを率いるように任命されたジャン・ライケは、その後、この約束自体が非常に効果的な「人材維持ツール」であると記者に語った。
では現実はどうでしょうか?このチームで働いていたり、密接に関わっていた4人の関係者によると、実際に割り当てられた計算能力は会社の合計計算能力の1%~2%にすぎず、かつて最も古かったハードウェアでした。このチームは後に解散され、ミッションは達成されませんでした。
記者がOpenAIの「存在性の安全性」研究を担当する人物へのインタビューを要請した際、同社の広報は笑えない反応を示した。「それは……実在するものではありません。」
アルトマン本人はむしろ平静だ。彼は記者に、自分の「直感は多くの従来のAIセキュリティの考え方とは合致しない」と語り、OpenAIは「セキュリティに関するプロジェクト、あるいは少なくともセキュリティに関連するプロジェクト」を継続すると述べた。
架空のCFOと近づくIPO
『ニューヨーカー』の報道は、その日の悪いニュースの半分にすぎなかった。同じ日、The Informationはもう一つの衝撃的なニュースを暴露した:OpenAIのCFOであるSarah FriarとAltmanの間に深刻な対立が生じているということだ。
Friarは同僚に、OpenAIは今年上市する準備ができていないと考えていると密かに語った。その理由は二つある:完了すべき手続き的・組織的な作業量が多すぎるのと、Altmanが約束した5年間で6000億ドルの計算リソース支出による財務リスクが高すぎるからだ。彼女はOpenAIの収益成長がこれらの約束を支えられるかも不確実だとさえ思っている。
しかし、Altmanは今年第4四半期にIPOを目指したいと考えている。
さらに驚くべきことに、フライアーはもはやアルトマンに直接報告していません。2025年8月から、彼女はOpenAIのアプリケーション事業CEOであるフィジ・シモに報告するようになりました。そしてシモは先週、健康上の理由で休暇を取っています。この状況を考えてみてください:IPOを目前に控えた企業で、CEOとCFOの間に根本的な対立があり、CFOはCEOに報告せず、CFOの上司は休暇中です。
マイクロソフトの内部幹部でさえ見かねて、アルトマンは「事実を歪め、約束を反故にし、合意された協定を次々と破棄している」と述べた。あるマイクロソフトの幹部は次のようにまで語った。「彼は、ベニー・マドフやSBF級の詐欺師として後世に記憶される可能性があると思います。」
Altmanの「二面性」画像
元OpenAI取締役の一人が記者に、Altmanの二つの特徴を説明した。この言葉は、この記事で最も鋭い人物描写かもしれない。
この取締役は、Altman が極めて稀な特徴の組み合わせを持っていると述べた。彼は対面でのすべての交流において、相手を喜ばせ、好かれたいという強い欲求を持っている。一方で、他人を欺くことによる結果に対して、ほぼ社会病的な無関心を示す。
二つの特性が同じ人に同時に現れることは非常に稀である。しかし、セールスマンにとっては、これが最良の才能である。
記事には、ジョブズは「現実歪曲フィールド」で有名であり、彼は世界中を自分のビジョンに信じ込ませることができたが、ジョブズですら、顧客に「私のMP3プレーヤーを買わなければ、あなたが愛する人が死ぬ」とは言ったことがないと、うまく比喩している。
AltmanはAIについて似たようなことを言いました。
CEOの人物問題が、なぜすべての人のリスクであるのか
アルトマンがただの一般テクノロジー企業のCEOであれば、これらの主張はせいぜい素晴らしいビジネスゴシップに過ぎない。しかし、OpenAIは普通ではない。
自身の説明によると、それは人類史上最も強力な技術を開発中であり、世界経済や労働市場を再構築し、大規模な生化学兵器の開発やネットワーク攻撃の実行にも利用される可能性がある。
すべてのセキュリティガードレールは形骸化している。創設者の非営利的な使命はIPOへの駆け足に取って代わられた。元首席科学者と元セキュリティ責任者は、CEOを「信頼できない」と評価している。パートナーはCEOをSBFに例えている。このような状況で、このCEOはなぜ、人類の運命を左右する可能性のあるAIモデルの公開時期を一方的に決定できるのか?
ガリー・マーカス(ニューヨーク大学AI教授、長年にわたりAIセキュリティを提唱)は、この記事を読んだ後、次の一文を書いた。「もし将来のOpenAIモデルが大規模な生化学兵器を生成したり、災害的なサイバー攻撃を仕掛けることができるようになった場合、あなたは本当に、アルトマンが単独で公開の可否を決定しても安心できるでしょうか?」
OpenAIは『ニューヨーカー』への対応として簡潔に述べた:「この記事の大部分は、既に報道された出来事を再掲し、匿名の主張と選択的なエピソードを用いて、情報源は明らかに個人的な目的を持っている。」
Altmanの対応方法:具体的な指摘には応じず、メモの真実性を否定せず、動機のみを疑問視する。
非営利の死体の上に、金のなる木が生えた
OpenAIの十年を物語のあらすじにすると、このような感じだ:
AIのリスクに懸念を抱く理想主義者たちが、ミッション驱动の非営利団体を設立した。その団体は画期的な技術的ブレークスルーを達成し、巨額の資本を引き寄せた。資本はリターンを求めるようになった。ミッションは徐々に後退した。セキュリティチームは解体され、疑問を呈した者は排除された。非営利構造は営利企業に変更された。かつて会社を停止する権限を持っていた取締役会は、CEOの同盟者で満たされた。かつて総計算能力の20%を人間の安全の守護に充てると約束していた企業は、現在の広報担当者が「それは実在しないものだ」と語っている。
物語の主人公に、100人以上の目撃者が共通して付けたラベルは、「真実に縛られない」だった。
彼はこの会社をIPOさせようとしており、評価額は8500億ドルを超えている。
本文の情報は、『ニューヨーカー』、Semafor、Tech Brew、Gizmodo、Business Insider、The Information などの複数のメディアによる公開報道を総合したものです。
