Le rapport du New York Times révèle les doutes internes d'OpenAI concernant la fiabilité de Sam Altman

iconTechFlow
Partager
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRésumé

expand icon
Les nouvelles on-chain du New York Times révèlent des doutes internes au sein d'OpenAI concernant la fiabilité du PDG Sam Altman. Basé sur plus de 100 entretiens et des documents internes, le rapport affirme qu'Altman a trompé le conseil d'administration et supprimé des mesures de sécurité. Un document de 70 pages rédigé par l'ancien scientifique en chef Ilya Sutskever détaille les allégations de mauvaise foi d'Altman, y compris des déclarations fausses concernant GPT-4. Dario Amodei d'Anthropic a noté en privé que « le problème d'OpenAI, c'est Sam lui-même ». Le rapport met également en lumière le passage d'OpenAI d'une mission à but non lucratif axée sur la sécurité à une entité commerciale, avec des protocoles clés supposément ignorés. Les nouveaux listages de jetons et les changements de stratégie corporative sont désormais soumis à un examen plus rigoureux dans les secteurs de l'IA et de la crypto.

Article écrit par Xiao Bing, Shenchao TechFlow

À l'automne 2023, Ilya Sutskever, scientifique en chef d'OpenAI, était assis devant son ordinateur, en train de terminer un document de 70 pages.

Ce document est compilé à partir des enregistrements de messages Slack, des archives de communications RH et des procès-verbaux de réunions internes, dans le seul but de répondre à une question : Sam Altman, l'homme qui dirige peut-être la technologie la plus dangereuse de l'histoire de l'humanité, peut-on lui faire confiance ?

La réponse de Sutskever, écrite sur la première ligne de la première page du fichier, avec pour titre de liste : « Sam montre un modèle de comportement constant… »

First: Lie.

Aujourd’hui, deux ans et demi plus tard, les journalistes d’investigation Ronan Farrow et Andrew Marantz ont publié dans The New Yorker un long article d’enquête. Ils ont interviewé plus de 100 personnes impliquées, obtenu des mémos internes jamais rendus publics auparavant, ainsi que les plus de 200 pages de notes personnelles laissées par Dario Amodei, fondateur d’Anthropic, durant son passage chez OpenAI. L’histoire que ces documents reconstituent est bien plus sombre que le « combat de cour » de 2023 : comment OpenAI est passé progressivement d’une organisation à but non lucratif née pour assurer la sécurité de l’humanité à une machine commerciale, où presque chaque barrière de sécurité a été démantelée par la même personne.

La conclusion d'Amodei dans ses notes est plus directe : « Le problème d'OpenAI, c'est Sam lui-même. »

La notion de "péché originel" d'OpenAI

Pour comprendre l'importance de ce rapport, il faut d'abord expliquer à quel point cette entreprise, OpenAI, est particulière.

En 2015, Altman et un groupe d'élites de la Silicon Valley ont accompli un acte sans précédent dans l'histoire commerciale : utiliser une organisation à but non lucratif pour développer ce qui pourrait être la technologie la plus puissante de l'histoire de l'humanité. Les responsabilités du conseil d'administration étaient clairement définies : la sécurité prime sur le succès de l'entreprise, voire sur sa survie elle-même. En termes simples, si un jour l'IA d'OpenAI devenait dangereuse, le conseil d'administration avait l'obligation de fermer l'entreprise lui-même.

L'ensemble de l'architecture repose sur une hypothèse : la personne qui gère l'AGI doit être extrêmement honnête.

Et si vous vous trompez dans votre pari ?

La bombe centrale du rapport est ce document de 70 pages. Sutskever ne joue pas à la politique de bureau ; il est l'un des scientifiques en IA les plus brillants au monde. Mais en 2023, il était de plus en plus convaincu d'une chose : Altman mentait constamment aux cadres supérieurs et au conseil d'administration.

Un exemple concret : en décembre 2022, Altman a assuré lors d'une réunion du conseil d'administration que plusieurs fonctionnalités du prochain GPT-4 avaient passé l'audit de sécurité. Le membre du conseil Toner a demandé à consulter les documents d'approbation, et a découvert que deux des fonctionnalités les plus controversées (le fine-tuning personnalisé par l'utilisateur et le déploiement d'assistants personnels) n'avaient en réalité pas obtenu l'approbation du comité de sécurité.

Des choses encore plus incroyables se sont produites en Inde. Un employé a signalé à un autre membre du conseil « cette infraction » : Microsoft a publié une version précoce de ChatGPT en Inde avant d'effectuer les examens de sécurité nécessaires.

Sutskever a également noté dans sa note un autre fait : Altman avait dit à l'ancien CTO Mira Murati que le processus d'approbation de sécurité n'était pas si important, car le conseiller juridique général de l'entreprise avait approuvé. Murati est allée vérifier auprès du conseiller juridique général, qui lui a répondu : « Je ne sais pas d'où Sam a tiré cette impression. »

Les 200 pages de notes privées d'Amodei

Les documents de Sutskever ressemblent à un acte d'accusation d'un procureur. Les plus de 200 pages de notes laissées par Amodei ressemblent davantage à un journal écrit par un témoin sur les lieux du crime.

Pendant ses années en tant que responsable de la sécurité chez OpenAI, Amodei a observé de ses propres yeux l'entreprise reculer progressivement sous la pression commerciale. Dans ses notes, il a documenté un détail clé de l'investissement de Microsoft en 2019 : il avait inséré dans les statuts d'OpenAI une clause « fusion et assistance », stipulant que si une autre entreprise découvrait un chemin plus sûr vers l'AGI, OpenAI devrait cesser la concurrence et aider cette entreprise. C'était la garantie de sécurité qu'il considérait comme la plus importante dans l'ensemble de cette transaction.

Lors de la signature rapide, Amodei a remarqué un fait : Microsoft a obtenu le droit de veto sur cette clause. Que signifie cela ? Même si un jour un concurrent trouvait un meilleur chemin, Microsoft pourrait d'un seul mot bloquer l'obligation d'assistance d'OpenAI. La clause est encore sur papier, mais dès le jour de la signature, elle devient un papier sans valeur.

Amodei a ensuite quitté OpenAI pour fonder Anthropic. La concurrence entre les deux entreprises repose sur une divergence fondamentale concernant la manière dont l'IA devrait être développée.

Engagement de calcul disparu de 20 %

Un détail dans le reportage vous glace le sang : l'équipe « Superalignment » d'OpenAI.

Au milieu de l'année 2023, Altman a envoyé un e-mail à un doctorant de Berkeley qui étudiait l'« alignement trompeur » (lorsque l'IA feint de bien se comporter lors des tests, mais agit différemment une fois déployée) pour lui dire qu'il était très préoccupé par ce problème et envisageait de créer un prix mondial de recherche de 1 milliard de dollars. Le doctorant, encouragé, a interrompu ses études et a rejoint OpenAI.

Ensuite, Altman a changé d'avis : au lieu de créer des prix externes, il a fondé au sein de l'entreprise une « équipe super-alignement ». L'entreprise a annoncé avec éclat qu'elle allait allouer « 20 % de sa capacité de calcul existante » à cette équipe, une valeur potentielle dépassant 1 milliard de dollars. Le communiqué était formulé avec une extrême gravité, affirmant que si le problème d'alignement n'était pas résolu, l'AGI pourrait entraîner « la dépossession de l'humanité, voire son extinction ».

Jan Leike, désigné pour diriger cette équipe, a ensuite déclaré aux journalistes que cette promesse était elle-même un excellent "outil de rétention des talents".

Et la réalité ? Quatre personnes ayant travaillé au sein de cette équipe ou en ayant été en contact étroit affirment que la puissance de calcul réellement allouée ne représentait que 1 % à 2 % de la puissance totale de l’entreprise, et s’agissait encore des équipements les plus anciens. Cette équipe a ensuite été dissoute, sans accomplir sa mission.

Lorsque les journalistes ont demandé à interviewer les personnes d'OpenAI chargées de la recherche sur la « sécurité existentielle », la réaction des relations publiques de l'entreprise a été à la fois absurde et déroutante : « Ce n'est pas une chose... qui existe réellement. »

Altman lui-même est plutôt détendu. Il a déclaré aux journalistes que son "intuition ne correspond pas à beaucoup de choses traditionnelles en matière de sécurité de l'IA", et que OpenAI continuera de mener des "projets de sécurité, ou du moins des projets liés à la sécurité".

CFO contourné et prochaine OPA

Le reportage du New Yorker n'était qu'une moitié des mauvaises nouvelles de la journée. Le même jour, The Information a révélé une autre nouvelle choc : une divergence sérieuse entre le CFO d'OpenAI, Sarah Friar, et Altman.

Friar a informé en privé ses collègues qu'elle pensait qu'OpenAI n'était pas prête à être cotée cette année. Deux raisons : la quantité de travail procédural et organisationnel à accomplir est trop importante, et le risque financier lié à l'engagement d'Altman de dépenser 600 milliards de dollars en puissance de calcul sur cinq ans est trop élevé. Elle n'est même pas sûre que la croissance des revenus d'OpenAI puisse soutenir ces engagements.

Mais Altman souhaite poursuivre un IPO au quatrième trimestre de cette année.

Ce qui est encore plus incroyable, c’est que Friar ne rend plus directement compte à Altman. Depuis août 2025, elle rend désormais compte à Fidji Simo (PDG des activités applications d’OpenAI). Or, Simo vient de prendre un congé maladie la semaine dernière pour des raisons de santé. Analysez cette situation : une entreprise en pleine préparation pour un IPO, dont le PDG et le CFO sont en désaccord fondamental, le CFO ne rend plus compte au PDG, et le supérieur du CFO est en congé maladie.

Même les cadres internes de Microsoft en ont eu assez, affirmant qu'Altman « déforme les faits, fait machine arrière et annule constamment les accords déjà conclus ». Un cadre de Microsoft a même déclaré : « Je pense qu'il y a une probabilité qu'il soit finalement retenu comme un escroc au niveau de Bernie Madoff ou de SBF. »

L'image "à deux visages" d'Altman

Un ancien membre du conseil d'administration d'OpenAI a décrit à un journaliste deux traits de caractère d'Altman. Cette phrase constitue probablement le portrait le plus percutant de l'article.

Ce directeur a déclaré qu'Altman possède une combinaison extrêmement rare de qualités : il désire ardemment plaire et être aimé lors de chaque échange en face à face, tout en affichant une indifférence presque sociopathique face aux conséquences que pourrait avoir la tromperie autrui.

Il est extrêmement rare que deux qualités apparaissent simultanément chez une personne. Mais pour un vendeur, c’est le don le plus parfait.

Un comparaison dans le reportage est bien formulée : Jobs était célèbre pour son « champ de déformation de la réalité », qui lui permettait de faire croire au monde entier en sa vision. Mais même Jobs n’a jamais dit à ses clients : « Si vous n’achetez pas mon lecteur MP3, les personnes que vous aimez mourront. »

Altman a dit quelque chose de similaire sur l'IA.

Pourquoi un problème de caractère d’un PDG représente un risque pour tous ?

Si Altman n'était que le PDG d'une entreprise technologique ordinaire, ces allégations seraient, au mieux, un bon potin commercial. Mais OpenAI n'est pas ordinaire.

Selon ses propres dires, elle développe probablement la technologie la plus puissante de l'histoire de l'humanité, capable de redéfinir l'économie mondiale et le marché du travail (OpenAI vient tout juste de publier un document politique sur les problèmes de chômage causés par l'IA), et peut également être utilisée pour créer des armes biochimiques à grande échelle ou lancer des cyberattaques.

Toutes les mesures de sécurité sont devenues une simple formalité. La mission à but non lucratif du fondateur a cédé la place à une course vers un IPO. L'ancien scientifique en chef et l'ancien responsable de la sécurité ont tous deux jugé le PDG « non fiable ». Les partenaires assimilent le PDG à SBF. Dans ces conditions, sur quel fondement ce PDG peut-il décider unilatéralement quand publier un modèle d'IA susceptible de changer le destin de l'humanité ?

Gary Marcus (professeur d'IA à l'Université de New York et défenseur de longue date de la sécurité de l'IA) a écrit une phrase après avoir lu l'article : Si un futur modèle d'OpenAI pouvait créer des armes biochimiques à grande échelle ou lancer une attaque informatique catastrophique, êtes-vous vraiment à l'aise avec la décision d'Altman seul de le publier ou non ?

La réponse d'OpenAI au New Yorker était concise : « La majeure partie de cet article reprend des événements déjà rapportés, à travers des déclarations anonymes et des anecdotes sélectives ; les sources semblent clairement avoir des objectifs personnels. »

La manière dont Altman a répondu : ne pas répondre aux allégations spécifiques, ne pas nier l'authenticité du mémorandum, mais remettre en question les motivations.

Sur le corps sans but lucratif, un arbre à sous a poussé

Les dix ans d'OpenAI, racontés sous forme de synopsis de histoire, sont les suivants :

Un groupe d'idéalistes préoccupés par les risques de l'IA a fondé une organisation à but non lucratif axée sur une mission. L'organisation a réalisé des percées technologiques exceptionnelles. Ces percées ont attiré d'importants capitaux. Les capitaux exigeaient un retour sur investissement. La mission a commencé à céder du terrain. L'équipe de sécurité a été dissoute. Les personnes qui posaient des questions ont été éliminées. La structure à but non lucratif a été transformée en entité lucratives. Le conseil d'administration, autrefois habilité à fermer l'entreprise, est désormais composé entièrement d'alliés du PDG. L'entreprise, qui s'était engagée à consacrer 20 % de sa puissance de calcul à la protection de la sécurité humaine, voit désormais ses responsables des relations publiques déclarer : « Ce n'est pas une chose réelle. »

Le protagoniste de l'histoire, plus d'une centaine de témoins lui ont attribué le même étiquette : « non contraint par la vérité ».

Il prépare la CTO de cette entreprise, évaluée à plus de 850 milliards de dollars.

Les informations de cet article sont issues de rapports publics de plusieurs médias, notamment The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider et The Information.

Clause de non-responsabilité : les informations sur cette page peuvent avoir été obtenues auprès de tiers et ne reflètent pas nécessairement les points de vue ou opinions de KuCoin. Ce contenu est fourni à titre informatif uniquement, sans aucune représentation ou garantie d’aucune sorte, et ne doit pas être interprété comme un conseil en investissement. KuCoin ne sera pas responsable des erreurs ou omissions, ni des résultats résultant de l’utilisation de ces informations. Les investissements dans les actifs numériques peuvent être risqués. Veuillez évaluer soigneusement les risques d’un produit et votre tolérance au risque en fonction de votre propre situation financière. Pour plus d’informations, veuillez consulter nos conditions d’utilisation et divulgation des risques.