Article rédigé par Ada, Shenchao TechFlow
Pang Ruoming n'a pas eu le temps de bien s'asseoir à son poste chez Meta qu'il est déjà parti.
En juillet 2025, Zuckerberg a arraché à Apple cet ingénieur chinois le plus recherché dans le domaine des infrastructures IA, en lui offrant un plan de rémunération pluriannuel d'une valeur totale dépassant 200 millions de dollars. Pang Ruoming a été intégré au Superintelligence Lab de Meta pour concevoir les infrastructures des prochains modèles d'IA.
Sept mois plus tard, OpenAI l'a recruté.
Selon The Information, OpenAI a mené une campagne de recrutement de plusieurs mois contre Pang Ruoming. Bien que Pang Ruoming ait dit à ses collègues qu'il était très heureux de travailler chez Meta, il a finalement choisi de partir. Selon Bloomberg, sa rémunération chez Meta était liée à des jalons, et un départ anticipé signifiait renoncer à la majeure partie de ses actions non encore réalisées.
200 millions de dollars ne peuvent pas acheter 7 mois de loyauté.
Ce n'est pas une simple histoire de changement d'emploi.
Le départ d'une personne, un signal pour plusieurs
Pang Ruoming n'est pas le premier à partir.
La semaine dernière, Mat Velloso, responsable produit de la plateforme de développement du laboratoire de superintelligence de Meta, a également annoncé son départ. Ce dernier avait rejoint Meta en juillet de l’année dernière après avoir quitté Google DeepMind, où il n’était resté que moins de huit mois. Plus tôt, en novembre 2025, Yann LeCun, lauréat du prix Turing et scientifique en chef de l’IA chez Meta, qui y travaillait depuis 12 ans, a annoncé son départ pour fonder une entreprise axée sur le « modèle du monde » qu’il défend depuis longtemps. Russ Salakhutdinov, vice-président de la recherche en IA générative chez Meta et disciple clé de Geoffrey Hinton, a également récemment annoncé officiellement son départ.
Pour comprendre la fuite des talents chez Meta AI, il faut d'abord comprendre à quel point Llama 4 a fait mal.
En avril 2025, Meta a lancé officiellement les modèles Scout et Maverick de la série Llama 4. Les données officielles sont impressionnantes, affirmant une supériorité totale sur GPT-4.5 et Claude Sonnet 3.7 dans les principaux benchmarks tels que MATH-500 et GPQA Diamond.
Cependant, ce modèle phare portant les ambitions de Meta a rapidement révélé ses limites lors de tests indépendants et aveugles menés par la communauté open source, présentant un écart abrupt entre ses capacités réelles de généralisation et de raisonnement et les promesses publicitaires. Face aux vives critiques de la communauté, le scientifique en chef de l'IA, Yann LeCun, a finalement admis que l'équipe avait « utilisé des versions différentes du modèle pour exécuter différents jeux de tests afin d'optimiser les scores finaux ».
Dans le monde académique et ingénierial rigoureux de l'IA, cela franchit une ligne rouge inacceptable. Autrement dit, l'équipe a entraîné Llama 4 à devenir un « élève de petite ville » spécialisé uniquement dans les sujets des examens passés, et non un « excellent élève » doté d'une intelligence véritablement avancée. Pour les maths, il vous montre le meilleur sujet de maths ; pour la programmation, il vous montre le meilleur sujet de programmation ; chaque test individuel semble impressionnant, mais en réalité, ce ne sont pas les mêmes modèles.
Cela s'appelle "cueillir les cerises" dans le milieu académique de l'IA, et "tricher à l'examen" dans le système éducatif axé sur les examens.
Pour Meta, qui se présente toujours comme un « phare de l'open source », cette tempête a directement détruit son actif le plus précieux : la confiance au sein de son écosystème de développeurs. Le coût immédiat a été une perte totale de confiance de Zuckerberg envers les lignes directrices techniques de son équipe GenAI, ouvrant la voie à l'arrivée ultérieure de cadres externes et à la marginalisation des départements clés d'infrastructure.
Il a dépensé entre 14,3 et 15 milliards de dollars pour acquérir 49 % de l'entreprise de annotation de données Scale AI, a nommé Alexandr Wang, le PDG de 28 ans de Scale AI, au poste de directeur général de l'IA de Meta, et a créé le Meta Superintelligence Lab (MSL). Le lauréat du prix Turing, LeCun, doit désormais rendre compte à ce jeune homme de 28 ans dans la nouvelle architecture. En octobre, Meta a supprimé environ 600 postes au sein du MSL, y compris des membres du département de recherche FAIR, créé par LeCun.
Le modèle phare initialement prévu pour être lancé à l'été 2025, Llama 4 Behemoth, a été repoussé à plusieurs reprises, d'abord de l'été à l'automne, puis finalement mis en suspens indéfiniment.
Meta se tourne vers le développement du prochain modèle textuel, codé « Avocado », et du modèle image/vidéo, codé « Mango ». Selon les rapports, Avocado vise à rivaliser avec GPT-5 et Gemini 3 Ultra. Prévu à l'origine pour une livraison fin 2025, il a été repoussé au premier trimestre 2026 en raison de performances insuffisantes lors des tests et d'optimisations d'entraînement non atteintes. Meta envisage de le publier en mode fermé, abandonnant la tradition ouverte du série Llama.
Meta a commis deux erreurs fatales dans ses modèles d'IA. La première est la falsification des benchmarks, ce qui a directement détruit la confiance de la communauté des développeurs ; la seconde est d'avoir intégré à force un département de recherche fondamentale comme FAIR, qui nécessite une décennie de travail acharné, dans une organisation produit axée sur des KPI trimestriels. Ensemble, ces deux actions constituent la cause fondamentale de la fuite des talents actuelle.
Puce développée en interne : une autre jambe cassée
Les talents fuient, et les puces présentent également des problèmes.
Selon The Information, Meta a abandonné la semaine dernière son projet de puce d'entraînement IA de pointe en cours de développement interne.
Le plan de puce interne de Meta s'appelle MTIA (Meta Training and Inference Accelerator). La feuille de route initiale de l'entreprise est ambitieuse : les versions MTIA v4, codée « Santa Barbara », v5, codée « Olympus », et v6, codée « Universal Core », sont prévues pour être livrées entre 2026 et 2028. Olympus est conçu comme la première puce de Meta basée sur une architecture chiplet 2 nm, visant à couvrir à la fois l'entraînement de modèles haut de gamme et l'inférence en temps réel, afin de remplacer finalement NVIDIA dans les clusters d'entraînement de Meta.
Ce puce d'entraînement de pointe vient d'être supprimée.
Meta n'est pas sans progrès ; MTIA a obtenu certains résultats côté inférence. La puce d'inférence MTIA v3, sous le code nommé « Iris », a été déployée à grande échelle dans les centres de données de Meta, principalement pour les systèmes de recommandation de Facebook Reels et Instagram, réduisant selon les dires les coûts totaux de possession de 40 % à 44 %. Mais l'inférence et l'entraînement sont deux choses différentes. L'inférence consiste à exécuter un modèle, tandis que l'entraînement consiste à l'entraîner. Meta peut fabriquer ses propres puces d'inférence, mais elle ne parvient pas à produire des puces d'entraînement capables de rivaliser directement avec NVIDIA.
Ce n'était pas la première fois dans l'histoire. En 2022, Meta avait tenté de développer ses propres puces d'inférence, mais après un échec lors d'un déploiement à petite échelle, elle avait abandonné le projet et passé une grosse commande à NVIDIA.
L'échec de ses puces internes a directement accéléré la frénésie d'achats externes de Meta.
Achat de panique de 135 milliards de dollars américains
En janvier 2026, Meta a annoncé un budget d'investissements en capital de 115 à 135 milliards de dollars pour cette année, soit presque le double des 72,2 milliards de dollars de l'année précédente. La majeure partie de ces fonds sera consacrée aux puces.
Dans les 10 jours, trois gros ordres se sont succédé :
Le 17 février, Meta a signé un accord de coopération stratégique pluriannuel et intergénérationnel avec NVIDIA. Meta déployera « des millions » de GPU Blackwell et de la prochaine génération Vera Rubin de NVIDIA, ainsi que les CPU indépendants Grace. Les analystes estiment que le montant de l'accord s'élève à plusieurs centaines de milliards de dollars, faisant de Meta le premier client supercalculateur au monde à déployer massivement les CPU indépendants Grace de NVIDIA.
Le 24 février, Meta a signé un accord pluriannuel sur les puces d'une valeur de 60 à 100 milliards de dollars avec AMD. Meta achètera les dernières GPU de la série MI450 et les CPU EPYC de sixième génération d'AMD. Dans le cadre de cet accord, AMD a délivré à Meta des warrants pour un maximum de 160 millions d'actions ordinaires, équivalents à environ 10 % du capital d'AMD, à un prix de 0,01 dollar par action, avec une échéance échelonnée selon les jalons de livraison.
Le 26 février, selon The Information, Meta a signé un accord pluriannuel d'une valeur de plusieurs milliards de dollars avec Google pour louer les puces TPU de Google Cloud afin d'entraîner et d'exécuter ses prochains modèles linguistiques de grande taille. Les deux parties discutent également de la possibilité pour Meta d'acheter directement des TPU à partir de 2027 pour les déployer dans ses propres centres de données.
Une entreprise de médias sociaux a passé, en 10 jours, des commandes potentiellement totalisant plus de mille milliards de dollars auprès de trois fournisseurs de puces.
Ce n'est pas une stratégie de diversification. C'est un achat panique.
Les trois niveaux de logique de l'anxiété liée à la puissance de calcul
Pourquoi Meta est-elle si pressée ?
Tout d'abord, les puces développées en interne ne sont plus une option. L'abandon du projet de puces d'entraînement les plus avancées signifie que Meta ne pourra, dans un avenir prévisible, satisfaire ses besoins en entraînement d'IA qu'en achetant des composants externes. Les puces MTIA pour l'inférence peuvent gérer des applications matures comme les systèmes de recommandation, mais pour entraîner des modèles de pointe comme Avocado, comparables à GPT-5, il faudra obligatoirement recourir à du matériel NVIDIA ou équivalent.
Deuxièmement, les concurrents n'attendront pas. OpenAI a obtenu d'immenses ressources provenant de Microsoft, SoftBank et des fonds souverains des Émirats arabes unis. Anthropic a sécurisé 1 million de puces TPU et Trainium chacune auprès de Google et d'Amazon. Gemini 3 de Google a été entièrement formé sur des TPU. Si Meta ne parvient pas à obtenir suffisamment de puissance de calcul, il ne pourra même pas se procurer de billet pour entrer dans la course.
Troisièmement, et peut-être le plus fondamental, Zuckerberg doit compenser le manque de capacité de R&D par du pouvoir d'achat. La défaillance de Llama 4, la fuite des talents clés et les difficultés rencontrées avec les puces internes combinées rendent le récit IA de Meta vulnérable devant Wall Street. Signer maintenant des contrats importants avec NVIDIA, AMD et Google envoie au moins un signal : nous avons de l'argent, nous achetons, nous n'avons pas abandonné.
La stratégie actuelle de Meta consiste à détruire le matériel si le logiciel échoue, et à acheter des puces si les talents partent. Mais la course à l’IA n’est pas un jeu que l’on gagne en écrivant des chèques. La puissance de calcul est une condition nécessaire, mais pas suffisante. Sans une équipe de modèles de premier plan et une feuille de route technique claire, même le plus grand nombre de puces ne sera que du matériel coûteux entreposé dans un entrepôt.
Le dilemme de l'acheteur
En revenant sur les trois transactions de Meta en février, un détail intéressant a été ignoré par la plupart des gens.
Meta achète à NVIDIA les Blackwell actuels et les Vera Rubin futurs ; avec AMD, il achète les MI450 et les MI455X futurs ; il loue à Google les TPU Ironwood actuels et prévoit de les acheter directement l'année prochaine.
Trois fournisseurs, trois architectures matérielles et écosystèmes logiciels complètement différents.
Cela signifie que Meta doit constamment alterner entre les trois écosystèmes sous-jacents distincts de NVIDIA CUDA, AMD ROCm et Google XLA/JAX. Bien que la stratégie multi-fournisseurs permette de répartir les risques de la chaîne d'approvisionnement et de réduire les primes d'achat du matériel, elle entraîne une augmentation exponentielle de la complexité ingénierie.
C'est précisément le point faible le plus critique de Meta actuellement : faire en sorte qu'un modèle de mille milliards de paramètres puisse être entraîné efficacement sur trois ensembles d'infrastructures matérielles fondamentalement différentes nécessite bien plus que des ingénieurs compétents en CUDA ; il faut des architectes capables de construire un cadre d'entraînement multi-plateformes depuis zéro.
Il y a peut-être moins de 100 personnes comme celle-ci dans le monde. Pang Ruoming en est une.
Dépenser 100 milliards de dollars pour acheter la combinaison d'équipements les plus complexes au monde, tout en perdant les cerveaux capables de maîtriser ces équipements, voilà la scène la plus magique de ce pari de Zuckerberg.
Le pari de Zuckerberg
En reculant la caméra, la stratégie de Zuckerberg en matière d’IA au cours des 18 derniers mois ressemble étrangement à celle qu’il a suivie lorsqu’il a tout misé sur l’ métavers à l’époque :
Repérer la tendance, investir massivement, recruter en grand nombre, faire face à des revers, changer brusquement de stratégie, puis investir à nouveau massivement.
De 2021 à 2023, ce fut l'ère de l' métavers, avec des pertes annuelles de plusieurs dizaines de milliards, et un cours de l'action tombé de 380 dollars à 88 dollars. De 2024 à 2026, ce sera l'IA, avec les mêmes dépenses sans limite, les mêmes restructurations fréquentes, et le même récit : « Faites-moi confiance, j'ai une vision ».
La différence, c’est que cette fois-ci, l’engouement pour l’IA est bien plus concret que celui pour l’ métavers. Meta dispose de fonds abondants, car son activité publicitaire génère des flux de trésorerie importants : le chiffre d’affaires de Meta au quatrième trimestre 2025 s’est élevé à 59,9 milliards de dollars, en hausse de 24 % en glissement annuel.
Le problème, c’est que l’argent peut acheter des puces, de la puissance de calcul, voire les personnes assises à leur poste de travail, mais pas celles qui restent.
Pang Ruoming a choisi OpenAI, Russ Salakhutdinov a choisi de partir, et LeCun a choisi de créer une entreprise.
L' pari de Zuckerberg est que, tant qu'il achète suffisamment de puces, construit des centres de données assez grands et dépense suffisamment d'argent, il trouvera ou formera toujours des personnes capables d'utiliser ces ressources.
Ce pari pourrait bien être justifié. Meta est, après tout, l'une des sociétés technologiques les plus riches au monde, et ses plus de 100 milliards de dollars de flux de trésorerie opérationnel constituent son rempart le plus solide. Elle continue de recruter des talents chez OpenAI, Anthropic, Google et d'autres concurrents. Selon Quantum Bit, près de 40 % des 44 membres de l'équipe Superintelligence de Meta proviennent d'OpenAI.
Mais la cruauté des concours d'IA réside dans le fait que les réserves de puissance de calcul, les listes de talents et les performances des modèles sont publiques ; l'affaire de falsification des benchmarks de Llama 4 prouve que dans ce secteur, il est impossible de maintenir un avantage grâce à des présentations PowerPoint et à des relations publiques.
Le marché ne reconnaît qu'une seule chose : la qualité de votre modèle.
Position dans la chaîne alimentaire
La course aux armements en IA entre en 2026, et la hiérarchie de la chaîne alimentaire est déjà clairement établie :
En tête se trouvent OpenAI et Google. OpenAI possède les modèles les plus puissants, la plus grande base d'utilisateurs et le financement le plus agressif. Google dispose d'une intégration verticale complète avec ses propres puces, ses propres modèles et ses propres infrastructures cloud. Anthropic suit de près, s'appuyant sur la force produit de son modèle Claude et sur un approvisionnement en puissance de calcul provenant à la fois de Google et d'Amazon, ce qui lui assure une place stable dans le premier échelon.
Meta ? Elle a dépensé le plus d'argent, signé le plus de contrats de puces et effectué les restructurations organisationnelles les plus fréquentes, mais jusqu'à présent, elle n'a pas présenté un modèle de pointe convaincant pour le marché.
L'histoire de l'IA de Meta ressemble un peu à Yahoo en 2005. À l'époque, Yahoo était l'une des entreprises les plus riches d'Internet, effectuait des acquisitions frénétiques et dépensait massivement, mais n'a jamais réussi à créer un moteur de recherche à la hauteur de Google. L'argent ne résout pas tout. Zuckerberg doit déterminer précisément ce que Meta veut accomplir dans le domaine de l'IA, plutôt que d'acheter tout ce qui est tendance.
Il est encore trop tôt pour écrire l'obituaire de Meta. 3,58 milliards d'utilisateurs actifs mensuels, 59,9 milliards de dollars de chiffre d'affaires trimestriel, le plus grand jeu de données sociales au monde : ce sont des actifs que tout concurrent peine à reproduire.
Si le modèle de prochaine génération nommé Avocado est livré comme prévu en 2026 et retrouve le premier échelon, les investissements massifs et la restructuration de Zuckerberg seront présentés comme une « audace stratégique pour renverser la situation ». Mais s’il échoue à nouveau, les 135 milliards de dollars dépensés ne seront qu’un ensemble d’entrepôts de wafers de silicium chauffés et alimentés.
Après tout, la course aux armements IA à Silicon Valley ne manque jamais d'acheteurs supers avec des chèques à la main. Ce qui manque, c'est les personnes sachant comment utiliser cette puissance de calcul pour créer l'avenir.
