Article | Sleepy.txt
En 2016, The New Yorker a publié un article sur Sam Altman intitulé « The Destiny of Sam Altman ». À l'époque, il avait 31 ans et était déjà président de Y Combinator, le plus puissant incubateur de la Silicon Valley.
Un détail dans le texte affirme qu'Ultraman aime conduire vite et possède cinq voitures de sport, ainsi qu'une habitude de louer des avions pour les piloter. Il a dit au journaliste qu'il avait deux sacs, dont l'un était un sac d'évasion prêt à être utilisé en cas de fuite.
Il a également préparé des armes à feu, de l'or, de l'iodure de potassium (pour se protéger contre les radiations nucléaires), des antibiotiques, des batteries, de l'eau, un masque à gaz de niveau IDF, ainsi qu'un terrain situé à Big Sur (une célèbre destination côtière en Californie), où il peut se réfugier en avion à tout moment.
Dix ans plus tard, Ultron est devenu celui qui s'est le plus consacré à créer la fin du monde, tout en étant le plus déterminé à vendre l'arche. Il a averti le monde que l'IA détruirait l'humanité, tout en accélérant personnellement ce processus ; il a prétendu ne pas être motivé par l'argent, tout en construisant un empire d'investissements personnels d'une valeur de 2 milliards de dollars ; il a appelé à la régulation, tout en éliminant tous ceux qui ont tenté de freiner la marche.
Il n'est pas tant un fou schizophrène ni un escroc calculateur, mais simplement le produit le plus standard et le plus réussi sorti de la vaste machine de la Silicon Valley. Son « destin » est de transformer l'anxiété collective de l'humanité en son sceptre et sa couronne.
La fin du monde est un bon business
Le modèle économique d'Ultraman peut être expliqué en une phrase : transformer un commerce en une croisade décisive pour la survie de l'humanité.
Il a commencé à pratiquer cette stratégie dès l'époque de YC. Il a transformé YC, qui n'était au départ qu'un petit atelier fournissant quelques dizaines de milliers de dollars aux startups en phase précoce, en un vaste empire entrepreneurial. Il a créé un laboratoire de recherche YC pour financer des projets qui ne rapportaient pas d'argent mais semblaient ambitieux. Il a déclaré aux journalistes que l'objectif de YC était de financer « tous les domaines importants ».
À OpenAI, il a poussé cette approche à son extrême. Il vend un ensemble cohérent de vision du monde : fin du monde par l'IA + solution de rédemption.
Il est meilleur que quiconque pour décrire les « risques d'extinction » apportés par l'IA. Il a signé une pétition avec des centaines de scientifiques affirmant que les risques de l'IA sont comparables à ceux d'une guerre nucléaire. Lors de son témoignage au Sénat, il a déclaré : « Nous ressentons une légère peur face (au potentiel de l'IA) — et les gens devraient en être heureux. » Il suggère que cette peur est en elle-même un avertissement bénéfique.
Chacune de ces phrases mériterait une une de journal, chacune fait de la publicité gratuite pour OpenAI. Cette peur soigneusement orchestrée est le levier d'attention le plus efficace. Une technologie qui « augmente l'efficacité » et une technologie qui « pourrait détruire l'humanité » — laquelle rendra le capital et les médias les plus excités ? La réponse va de soi.
Pour cette partie de la rédemption, il a déjà un produit tout prêt : Worldcoin. Lorsque la peur est ancrée dans la conscience publique, la vente d'une solution devient logique. Utiliser une sphère argentée de la taille d'un ballon de basket pour scanner les iris des humains à l'échelle mondiale, prétendument afin de distribuer de l'argent à chacun à l'ère de l'IA. L'histoire est bien racontée, mais cette pratique consistant à échanger des données biométriques contre de l'argent a rapidement attiré l'attention prudente des gouvernements de plusieurs pays. Une dizaine de pays, dont le Kenya, l'Espagne, le Brésil, l'Inde et la Colombie, ont suspendu ou enquêté sur Worldcoin pour des raisons de confidentialité des données.

Mais pour Ultraman, cela pourrait ne pas être important du tout. Ce qui compte, c’est qu’il a réussi, à travers ce projet, à se positionner comme la seule personne ayant une solution.
Vendre la peur et l'espoir en lot est le modèle économique le plus efficace de notre époque.
La régulation est mon arme, pas mes chaînes
Comment un homme qui parle constamment de la fin du monde peut-il faire des affaires ? La réponse d'Ultraman est : transformer la réglementation en arme.
En mai 2023, il a fait sa première apparition devant le Congrès américain. Au lieu de se plaindre de la réglementation, comme d'autres PDG de sociétés technologiques, il a demandé activement : « Veuillez nous réglementer. » Il a proposé la mise en place d'un système de licences pour l'IA, n'autorisant que les entreprises détentrices d'une licence à développer de grands modèles. Cela lui a permis de se présenter comme un leader industriel très responsable, mais à ce moment-là, OpenAI était largement en avance sur le plan technologique, et un système de réglementation strict et à hauts seuils avait surtout pour effet d'éliminer tous les concurrents potentiels.
Cependant, avec le temps, notamment après que des concurrents tels que Google et Anthropic ont rattrapé leur retard technologique et que la communauté open source a commencé à gagner en puissance, le discours d'Altman sur la régulation a subi un changement subtil. Il a commencé à souligner, dans diverses occasions, qu'une régulation trop stricte, en particulier l'exigence d'une révision obligatoire avant la publication pour les entreprises d'IA, pourrait étouffer l'innovation et être « catastrophique ».
La réglementation à ce stade n'est plus un fossé protecteur, mais une pierre d'achoppement.
Lorsqu'il est en position de force absolue, il appelle à la régulation pour consolider son avantage ; lorsqu'il perd cet avantage, il appelle à la liberté pour chercher une percée. Il a même tenté d'étendre son emprise jusqu'aux premiers maillons de la chaîne de valeur. Il a proposé un projet de puces d'une valeur de 7 000 milliards de dollars, cherchant le soutien de fonds souverains comme celui des Émirats arabes unis, dans le but de redéfinir la carte mondiale de l'industrie des semi-conducteurs. Cela dépasse largement les compétences d'un PDG ; il agit plutôt comme un ambitieux visant à influencer l'ordre mondial.

Derrière tout cela se trouve la transformation rapide d’OpenAI, passant d’une organisation à but non lucratif à une géante commerciale. Lors de sa création en 2015, sa mission était de « garantir en toute sécurité que l’IGA profite à l’humanité entière ». En 2019, elle a créé une filiale à profit limité. Au début de l’année 2024, il a été révélé que le mot « en toute sécurité » avait été discrètement supprimé de la déclaration de mission d’OpenAI. Bien que la structure de l’entreprise reste à profit limité, son rythme de commercialisation s’est clairement accéléré. En parallèle, les revenus ont explosé, passant de quelques centaines de millions de dollars en 2022 à plus de 10 milliards de dollars de revenus annuels en 2024, tandis que sa valorisation a grimpé de 29 milliards à plus de 100 milliards de dollars.
Quand une personne commence à lever les yeux vers les étoiles et à parler du destin de l'humanité, il vaut mieux d'abord regarder où se trouve son sac d'argent.
Le privilège du leader charismatique
Le 17 novembre 2023, Otman a été licencié par le conseil d'administration qu'il avait lui-même sélectionné, pour « manque de transparence dans ses communications avec le conseil ».
Ce qui s'est produit au cours des cinq prochains jours était moins une bataille commerciale qu'un référendum sur la foi. Le PDG Greg Brockman a démissionné ; plus de 700 employés, soit 95 % de l'entreprise, ont signé une pétition demandant la démission du conseil d'administration, sinon ils quitteraient tous l'entreprise pour rejoindre Microsoft ; le PDG de Microsoft, Nadella, le plus grand investisseur, a publiquement pris parti, déclarant qu'il accueillerait volontiers Altman au travail. Finalement, Altman est revenu en triomphateur, rétabli dans ses fonctions, et a éliminé presque tous les membres du conseil qui s'opposaient à lui.
Pourquoi un PDG officiellement jugé « peu honnête » par le conseil d'administration peut-il revenir intact, voire avec plus de pouvoir ?
La membre du conseil expulsée, Helen Toner, a révélé des détails par la suite. Altman a caché au conseil son contrôle réel sur le fonds de démarrage d'OpenAI ; il a menti à plusieurs reprises sur les processus de sécurité cruciaux de l'entreprise ; et même pour le lancement majeur de ChatGPT, le conseil l'a appris sur Twitter. Ces allégations, chacune d'entre elles suffirait à destituer un PDG cent fois.
Mais Ultraman va bien. Car il n'est pas un PDG ordinaire, c'est un « leader charismatique ».
C'est un concept proposé il y a cent ans par le sociologue Max Weber : il existe une forme d'autorité qui ne provient ni d'un poste ni d'une loi, mais de la « charisme exceptionnel » propre au leader. Les adeptes le suivent non parce qu'il fait toujours correctement les choses, mais parce qu'il est lui-même. Cette croyance est irrationnelle. Lorsque le leader commet une erreur ou est contesté, la première réaction des adeptes n'est pas de remettre en question le leader, mais d'attaquer celui qui le conteste.
Les employés d'OpenAI sont ainsi. Ils ne croient pas à la justice procédurale du conseil d'administration, ils ne croient qu'à la « destinée » représentée par Altman, et ils pensent que les membres du conseil entravent le progrès de l'humanité.
Après la réintégration d'Altman, l'équipe de sécurité d'OpenAI a été rapidement dissoute. Ilya Sutskever, le scientifique en chef qui avait mené le renvoi d'Altman, a lui aussi quitté l'entreprise. En mai 2024, Jan Leike, responsable de l'équipe de sécurité, a démissionné, écrivant sur Twitter : « Pour lancer ces produits brillants, la culture et les processus de sécurité de l'entreprise ont été sacrifiés. »

Devant un « leader charismatique », les faits ne sont pas importants, les processus ne sont pas importants, la sécurité non plus. Le seul élément important, c’est la foi.
Les prophètes de la chaîne de production
Sam Altman n'est que le modèle le plus récent et le plus réussi de la chaîne de production de « prophètes » de la Silicon Valley.
Sur cette chaîne de production, il y a encore beaucoup de personnes que nous connaissons bien.
Par exemple, Musk. En 2014, il répétait partout que « l’IA invoque le démon ». Mais sa Tesla est devenue la plus grande entreprise robotique au monde et le scénario d’application IA le plus complexe. Après sa rupture avec Altman, il a fondé xAI en 2023 pour lui déclarer la guerre directement. Un an plus tard, la valorisation de xAI dépassait déjà 20 milliards de dollars. Il alerte sur l’arrivée du démon tout en créant lui-même un autre démon. Ce récit binaire de lutte interne résonne exactement comme celui d’Altman.
Prenez aussi Zuckerberg. Il y a quelques années, il a misé l'ensemble de la valeur de son entreprise sur le métavers, en dépensant près de 90 milliards de dollars, avant de se rendre compte que c'était un piège. Il a alors fait machine arrière et remplacé le récit central de l'entreprise par l'AGI. En 2025, il a annoncé la création du « Superintelligence Lab » et a personnellement recruté des talents. Même vision ambitieuse concernant l'avenir de l'humanité, même histoire de capital nécessitant des investissements astronomiques, même posture de sauveur.

Il y a aussi Peter Thiel. En tant que mentor d'Altman, il ressemble davantage au concepteur en chef de cette chaîne de production. Tout en investissant dans diverses entreprises promouvant le « point de singularité technologique » et l'« immortelité », il achète des terres en Nouvelle-Zélande et construit des abris apocalyptiques ; il n'a passé que 12 jours en Nouvelle-Zélande avant d'obtenir la citoyenneté. Palantir, qu'il dirige, est l'une des plus grandes entreprises mondiales de surveillance des données, avec principalement des clients gouvernementaux et militaires. Il prépare en parallèle la fin de la civilisation tout en concevant pour les détenteurs du pouvoir les outils de surveillance les plus perfides. Lors de l'action militaire contre l'Iran au début de 2026, c'est précisément la plateforme d'intelligence artificielle de Palantir qui a servi de cerveau, intégrant les masses de données provenant des satellites espions, de l'interception des communications, des drones et des analyses du modèle Claude, transformant en temps réel les informations chaotiques en données exploitables pour la prise de décision, permettant finalement d'identifier et d'éliminer la cible.
Chacun d’eux joue un double rôle : celui de « prévenir la fin du monde » et celui de « pousser à sa venue ». Ce n’est pas une dissociation de la personnalité, mais un modèle économique validé par les marchés financiers comme le plus efficace. Ils capturent l’attention, le capital et le pouvoir en créant et en vendant une anxiété structurelle. Ils sont à la fois le produit de ce système et son architecte, le « mal derrière le grand récit ».
La Silicon Valley n'est plus seulement un endroit qui produit de la technologie, c'est aussi une usine de fabrication de « mythes modernes ».
Pourquoi ce stratagème fonctionne-t-il à chaque fois ?
Tous les quelques années, la Silicon Valley produit un nouveau prophète qui envahit l'attention des capitaux, des médias et du public avec une vaste narration sur l'apocalypse et le salut. Ce stratagème est répété encore et encore, mais fonctionne à chaque fois. Chaque élément de ce mécanisme cible précisément des failles spécifiques de la cognition humaine.
Étape 1 : Gérer le rythme de la peur, et non pas simplement la créer.
Les risques potentiels de l'IA sont réels, mais ils auraient pu être discutés avec calme. Ce sont ces personnes qui ont activement choisi de les présenter de la manière la plus dramatique, et elles exercent un contrôle précis sur la libération de la peur.
Quand faire peur au public, quand offrir de l’espoir et quand relancer l’alerte est soigneusement conçu. La peur est le carburant, mais le moment et la manière d’allumer la flamme constituent la véritable technique.
Étape 2 : Transformer l'incompréhension technique en source d'autorité.
L'IA est une boîte noire totalement opaque pour la majorité des gens. Lorsqu'apparaît une chose trop complexe pour être pleinement comprise, les gens ont tendance à céder instinctivement le droit d'explication à « ceux qui la comprennent le mieux ». Ils comprennent profondément ce mécanisme et en font un avantage structurel : plus ils décrivent l'IA comme mystérieuse, dangereuse et au-delà de la compréhension humaine, plus ils deviennent irremplaçables.
La terreur de ce raisonnement réside dans son caractère auto-renforçant. Toute critique externe est automatiquement annulée parce que le critiqueur « ne comprend pas assez ». Les régulateurs ne comprennent pas la technologie, donc leurs jugements ne sont pas fiables ; les critiques du monde académique n’ont jamais travaillé sur des modèles sur le terrain, donc leurs préoccupations ne sont que théoriques. En fin de compte, seuls eux-mêmes ont le droit d’évaluer leurs propres actions.
Étape 3 : Remplacez « intérêt » par « signification » pour inciter les adeptes à abandonner spontanément la critique.
C'est la couche la plus difficile à déceler de tout le système, et la source la plus durable de sa puissance. Ils ne vendent jamais simplement un emploi ou un produit, mais une histoire qui a un sens à l'échelle de l'univers : vous décidez du destin de l'humanité. Une fois cette narration acceptée, les adeptes abandonnent volontairement leur jugement indépendant. Car, face à une mission concernant « la survie de l'humanité », remettre en question les motivations du leader fait paraître l'individu minuscule, voire comme un obstacle à l'histoire. Cela pousse les gens à céder volontairement leur capacité critique, et à considérer cette cession comme un choix noble.
En combinant ces trois étapes, vous comprenez pourquoi ce système est si difficile à déstabiliser. Il ne repose pas sur des mensonges, mais sur une compréhension précise de la structure cognitive humaine. Il crée d'abord une peur que vous ne pouvez ignorer, puis monopolise l'interprétation de cette peur, et enfin vous transforme en son plus fidèle propagateur grâce au « sens ».
Dans ce système, Ultraman est le modèle le plus fluide à ce jour.
Quel est le destin de qui ?
Ultraman a toujours affirmé qu'il ne détenait aucune action d'OpenAI et ne percevait qu'un salaire symbolique, ce qui constituait la base de son récit de « travailler par amour ».
Mais Bloomberg lui a fait le calcul en 2024 : son actif net personnel s'élève à environ 2 milliards de dollars. Cette richesse provient principalement d'une série d'investissements qu'il a réalisés au cours des deux dernières décennies en tant que capital-risqueur. Son investissement initial dans l'entreprise de paiements Stripe aurait rapporté des centaines de millions de dollars ; la cotation en bourse de Reddit, dans laquelle il a investi, lui a également procuré d'importants gains. Il a également investi dans l'entreprise de fusion nucléaire Helion, affirmant d'un côté que l'avenir de l'IA dépend des percées énergétiques, tout en plaçant des paris massifs sur la fusion nucléaire, avant que OpenAI ne négocie avec Helion un important contrat d'achat d'électricité. Il affirme avoir évité les négociations, mais la chaîne d'intérêts est évidente pour n'importe qui.

Il ne possède effectivement pas de parts directes dans OpenAI, mais il a construit un vaste empire d'investissements centré sur sa personne autour d'OpenAI. Chaque fois qu'il prêche sur l'avenir de l'humanité, il injecte de la valeur dans l'expansion de cet empire.
Maintenant, le regarder avec son sac d'évacuation d'urgence rempli d'armes, d'or et d'antibiotiques, ainsi que ce terrain à Big Sur prêt à être décollé, suscite-t-il une nouvelle compréhension ?
Il ne cache jamais tout cela. Le kit d'évacuation est réel, le bunker est réel, et l'obsession pour la fin du monde est également réelle. Mais il est aussi celui qui s'efforce le plus à faire arriver la fin du monde. Ces deux choses ne sont pas contradictoires, car dans sa logique, la fin du monde n'a pas besoin d'être empêchée, seulement anticipée. Il est obsédé par le rôle de celui qui voit seul l'avenir et s'y prépare.
Que vous prépariez un kit d'évacuation matériel ou que vous construisiez un empire financier autour d'OpenAI, il s'agit fondamentalement de la même chose : vous assurer une position de gagnant le plus certain possible dans un avenir incertain que vous avez vous-même contribué à façonner.
En février 2026, il venait à peine de déclarer sa ligne rouge contre l'utilisation de l'IA dans la guerre qu'il signait déjà un contrat avec le Pentagone. Ce n'est pas de l'hypocrisie, c'est une exigence inhérente à son modèle économique. Les positions morales font partie du produit, les contrats commerciaux sont la source de profit. Il doit jouer simultanément le rôle du sauveur bienveillant et du prophète impitoyable de la fin des temps, car seul ce double rôle permet à son histoire de se poursuivre et à son « destin » de se révéler clairement.
Ce qui est vraiment dangereux, ce n'est jamais l'IA, mais ceux qui croient avoir le droit de définir le destin de l'humanité.
Cliquez pour en savoir plus sur les postes disponibles chez BlockBeats
Rejoignez la communauté officielle de律动 BlockBeats :
Groupe Telegram abonné : https://t.me/theblockbeats
Groupe Telegram : https://t.me/BlockBeats_App
Compte officiel Twitter : https://twitter.com/BlockBeatsAsia
