Article écrit par Xiao Bing, Shenchao TechFlow
À l'automne 2023, Ilya Sutskever, scientifique en chef d'OpenAI, était assis devant son ordinateur, en train de terminer un document de 70 pages.
Ce document est compilé à partir des enregistrements de messages Slack, des archives de communications RH et des procès-verbaux de réunions internes, dans le seul but de répondre à une question : Sam Altman, l'homme qui dirige peut-être la technologie la plus dangereuse de l'histoire de l'humanité, peut-on lui faire confiance ?
La réponse de Sutskever, écrite sur la première ligne de la première page du fichier, avec pour titre de liste : « Sam montre un modèle de comportement constant… »
First: Lie.
Aujourd’hui, deux ans et demi plus tard, les journalistes d’investigation Ronan Farrow et Andrew Marantz ont publié dans The New Yorker un long article d’enquête. Ils ont interviewé plus de 100 personnes impliquées, obtenu des mémos internes jamais rendus publics auparavant, ainsi que les plus de 200 pages de notes personnelles laissées par Dario Amodei, fondateur d’Anthropic, durant son passage chez OpenAI. L’histoire que ces documents reconstituent est bien plus sombre que le « combat de cour » de 2023 : comment OpenAI est passé progressivement d’une organisation à but non lucratif née pour assurer la sécurité de l’humanité à une machine commerciale, où presque chaque barrière de sécurité a été démantelée par la même personne.
La conclusion d'Amodei dans ses notes est plus directe : « Le problème d'OpenAI, c'est Sam lui-même. »
La notion de "péché originel" d'OpenAI
Pour comprendre l'importance de ce rapport, il faut d'abord expliquer à quel point cette entreprise, OpenAI, est particulière.
En 2015, Altman et un groupe d'élites de la Silicon Valley ont accompli un acte sans précédent dans l'histoire commerciale : utiliser une organisation à but non lucratif pour développer ce qui pourrait être la technologie la plus puissante de l'histoire de l'humanité. Les responsabilités du conseil d'administration étaient clairement définies : la sécurité prime sur le succès de l'entreprise, voire sur sa survie elle-même. En termes simples, si un jour l'IA d'OpenAI devenait dangereuse, le conseil d'administration avait l'obligation de fermer l'entreprise lui-même.
L'ensemble de l'architecture repose sur une hypothèse : la personne qui gère l'AGI doit être extrêmement honnête.
Et si vous vous trompez dans votre pari ?
La bombe centrale du rapport est ce document de 70 pages. Sutskever ne joue pas à la politique de bureau ; il est l'un des scientifiques en IA les plus brillants au monde. Mais en 2023, il était de plus en plus convaincu d'une chose : Altman mentait constamment aux cadres supérieurs et au conseil d'administration.
Un exemple concret : en décembre 2022, Altman a assuré lors d'une réunion du conseil d'administration que plusieurs fonctionnalités du prochain GPT-4 avaient passé l'audit de sécurité. Le membre du conseil Toner a demandé à consulter les documents d'approbation, et a découvert que deux des fonctionnalités les plus controversées (le fine-tuning personnalisé par l'utilisateur et le déploiement d'assistants personnels) n'avaient en réalité pas obtenu l'approbation du comité de sécurité.
Des choses encore plus incroyables se sont produites en Inde. Un employé a signalé à un autre membre du conseil « cette infraction » : Microsoft a publié une version précoce de ChatGPT en Inde avant d'effectuer les examens de sécurité nécessaires.
Sutskever a également noté dans sa note un autre fait : Altman avait dit à l'ancien CTO Mira Murati que le processus d'approbation de sécurité n'était pas si important, car le conseiller juridique général de l'entreprise avait approuvé. Murati est allée vérifier auprès du conseiller juridique général, qui lui a répondu : « Je ne sais pas d'où Sam a tiré cette impression. »
Les 200 pages de notes privées d'Amodei
Les documents de Sutskever ressemblent à un acte d'accusation d'un procureur. Les plus de 200 pages de notes laissées par Amodei ressemblent davantage à un journal écrit par un témoin sur les lieux du crime.
Pendant ses années en tant que responsable de la sécurité chez OpenAI, Amodei a observé de ses propres yeux l'entreprise reculer progressivement sous la pression commerciale. Dans ses notes, il a documenté un détail clé de l'investissement de Microsoft en 2019 : il avait inséré dans les statuts d'OpenAI une clause « fusion et assistance », stipulant que si une autre entreprise découvrait un chemin plus sûr vers l'AGI, OpenAI devrait cesser la concurrence et aider cette entreprise. C'était la garantie de sécurité qu'il considérait comme la plus importante dans l'ensemble de cette transaction.
Lors de la signature rapide, Amodei a remarqué un fait : Microsoft a obtenu le droit de veto sur cette clause. Que signifie cela ? Même si un jour un concurrent trouvait un meilleur chemin, Microsoft pourrait d'un seul mot bloquer l'obligation d'assistance d'OpenAI. La clause est encore sur papier, mais dès le jour de la signature, elle devient un papier sans valeur.
Amodei a ensuite quitté OpenAI pour fonder Anthropic. La concurrence entre les deux entreprises repose sur une divergence fondamentale concernant la manière dont l'IA devrait être développée.
Engagement de calcul disparu de 20 %
Un détail dans le reportage vous glace le sang : l'équipe « Superalignment » d'OpenAI.
Au milieu de l'année 2023, Altman a envoyé un e-mail à un doctorant de Berkeley qui étudiait l'« alignement trompeur » (lorsque l'IA feint de bien se comporter lors des tests, mais agit différemment une fois déployée) pour lui dire qu'il était très préoccupé par ce problème et envisageait de créer un prix mondial de recherche de 1 milliard de dollars. Le doctorant, encouragé, a interrompu ses études et a rejoint OpenAI.
Ensuite, Altman a changé d'avis : au lieu de créer des prix externes, il a fondé au sein de l'entreprise une « équipe super-alignement ». L'entreprise a annoncé avec éclat qu'elle allait allouer « 20 % de sa capacité de calcul existante » à cette équipe, une valeur potentielle dépassant 1 milliard de dollars. Le communiqué était formulé avec une extrême gravité, affirmant que si le problème d'alignement n'était pas résolu, l'AGI pourrait entraîner « la dépossession de l'humanité, voire son extinction ».
Jan Leike, désigné pour diriger cette équipe, a ensuite déclaré aux journalistes que cette promesse était elle-même un excellent "outil de rétention des talents".
Et la réalité ? Quatre personnes ayant travaillé au sein de cette équipe ou en ayant été en contact étroit affirment que la puissance de calcul réellement allouée ne représentait que 1 % à 2 % de la puissance totale de l’entreprise, et s’agissait encore des équipements les plus anciens. Cette équipe a ensuite été dissoute, sans accomplir sa mission.
Lorsque les journalistes ont demandé à interviewer les personnes d'OpenAI chargées de la recherche sur la « sécurité existentielle », la réaction des relations publiques de l'entreprise a été à la fois absurde et déroutante : « Ce n'est pas une chose... qui existe réellement. »
Altman lui-même est plutôt détendu. Il a déclaré aux journalistes que son "intuition ne correspond pas à beaucoup de choses traditionnelles en matière de sécurité de l'IA", et que OpenAI continuera de mener des "projets de sécurité, ou du moins des projets liés à la sécurité".
CFO contourné et prochaine OPA
Le reportage du New Yorker n'était qu'une moitié des mauvaises nouvelles de la journée. Le même jour, The Information a révélé une autre nouvelle choc : une divergence sérieuse entre le CFO d'OpenAI, Sarah Friar, et Altman.
Friar a informé en privé ses collègues qu'elle pensait qu'OpenAI n'était pas prête à être cotée cette année. Deux raisons : la quantité de travail procédural et organisationnel à accomplir est trop importante, et le risque financier lié à l'engagement d'Altman de dépenser 600 milliards de dollars en puissance de calcul sur cinq ans est trop élevé. Elle n'est même pas sûre que la croissance des revenus d'OpenAI puisse soutenir ces engagements.
Mais Altman souhaite poursuivre un IPO au quatrième trimestre de cette année.
Ce qui est encore plus incroyable, c’est que Friar ne rend plus directement compte à Altman. Depuis août 2025, elle rend désormais compte à Fidji Simo (PDG des activités applications d’OpenAI). Or, Simo vient de prendre un congé maladie la semaine dernière pour des raisons de santé. Analysez cette situation : une entreprise en pleine préparation pour un IPO, dont le PDG et le CFO sont en désaccord fondamental, le CFO ne rend plus compte au PDG, et le supérieur du CFO est en congé maladie.
Même les cadres internes de Microsoft en ont eu assez, affirmant qu'Altman « déforme les faits, fait machine arrière et annule constamment les accords déjà conclus ». Un cadre de Microsoft a même déclaré : « Je pense qu'il y a une probabilité qu'il soit finalement retenu comme un escroc au niveau de Bernie Madoff ou de SBF. »
L'image "à deux visages" d'Altman
Un ancien membre du conseil d'administration d'OpenAI a décrit à un journaliste deux traits de caractère d'Altman. Cette phrase constitue probablement le portrait le plus percutant de l'article.
Ce directeur a déclaré qu'Altman possède une combinaison extrêmement rare de qualités : il désire ardemment plaire et être aimé lors de chaque échange en face à face, tout en affichant une indifférence presque sociopathique face aux conséquences que pourrait avoir la tromperie autrui.
Il est extrêmement rare que deux qualités apparaissent simultanément chez une personne. Mais pour un vendeur, c’est le don le plus parfait.
Un comparaison dans le reportage est bien formulée : Jobs était célèbre pour son « champ de déformation de la réalité », qui lui permettait de faire croire au monde entier en sa vision. Mais même Jobs n’a jamais dit à ses clients : « Si vous n’achetez pas mon lecteur MP3, les personnes que vous aimez mourront. »
Altman a dit quelque chose de similaire sur l'IA.
Pourquoi un problème de caractère d’un PDG représente un risque pour tous ?
Si Altman n'était que le PDG d'une entreprise technologique ordinaire, ces allégations seraient, au mieux, un bon potin commercial. Mais OpenAI n'est pas ordinaire.
Selon ses propres dires, elle développe probablement la technologie la plus puissante de l'histoire de l'humanité, capable de redéfinir l'économie mondiale et le marché du travail (OpenAI vient tout juste de publier un document politique sur les problèmes de chômage causés par l'IA), et peut également être utilisée pour créer des armes biochimiques à grande échelle ou lancer des cyberattaques.
Toutes les mesures de sécurité sont devenues une simple formalité. La mission à but non lucratif du fondateur a cédé la place à une course vers un IPO. L'ancien scientifique en chef et l'ancien responsable de la sécurité ont tous deux jugé le PDG « non fiable ». Les partenaires assimilent le PDG à SBF. Dans ces conditions, sur quel fondement ce PDG peut-il décider unilatéralement quand publier un modèle d'IA susceptible de changer le destin de l'humanité ?
Gary Marcus (professeur d'IA à l'Université de New York et défenseur de longue date de la sécurité de l'IA) a écrit une phrase après avoir lu l'article : Si un futur modèle d'OpenAI pouvait créer des armes biochimiques à grande échelle ou lancer une attaque informatique catastrophique, êtes-vous vraiment à l'aise avec la décision d'Altman seul de le publier ou non ?
La réponse d'OpenAI au New Yorker était concise : « La majeure partie de cet article reprend des événements déjà rapportés, à travers des déclarations anonymes et des anecdotes sélectives ; les sources semblent clairement avoir des objectifs personnels. »
La manière dont Altman a répondu : ne pas répondre aux allégations spécifiques, ne pas nier l'authenticité du mémorandum, mais remettre en question les motivations.
Sur le corps sans but lucratif, un arbre à sous a poussé
Les dix ans d'OpenAI, racontés sous forme de synopsis de histoire, sont les suivants :
Un groupe d'idéalistes préoccupés par les risques de l'IA a fondé une organisation à but non lucratif axée sur une mission. L'organisation a réalisé des percées technologiques exceptionnelles. Ces percées ont attiré d'importants capitaux. Les capitaux exigeaient un retour sur investissement. La mission a commencé à céder du terrain. L'équipe de sécurité a été dissoute. Les personnes qui posaient des questions ont été éliminées. La structure à but non lucratif a été transformée en entité lucratives. Le conseil d'administration, autrefois habilité à fermer l'entreprise, est désormais composé entièrement d'alliés du PDG. L'entreprise, qui s'était engagée à consacrer 20 % de sa puissance de calcul à la protection de la sécurité humaine, voit désormais ses responsables des relations publiques déclarer : « Ce n'est pas une chose réelle. »
Le protagoniste de l'histoire, plus d'une centaine de témoins lui ont attribué le même étiquette : « non contraint par la vérité ».
Il prépare la CTO de cette entreprise, évaluée à plus de 850 milliards de dollars.
Les informations de cet article sont issues de rapports publics de plusieurs médias, notamment The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider et The Information.
