Le Mac mini d'Apple a toujours été ce bureau discret et souvent oublié dans un coin du magasin Apple. Il est pratique et son prix correspond aux normes d'Apple, mais il a rarement attiré l'attention du domaine de l'intelligence artificielle. Jusqu'à l'apparition d'OpenClaw.
Jeudi, Tim Cook a déclaré aux analystes que le Mac mini et le Mac Studio sont épuisés et que cette situation pourrait durer plusieurs mois. « Ces deux produits sont d'excellentes plateformes pour l'intelligence artificielle et les outils d'agents intelligents », a-t-il déclaré. Conférence téléphonique des résultats du deuxième trimestre fiscal 2026 d'Apple « Et les clients comprennent cela plus rapidement que nous ne l'attendions. »
Apple a sous-estimé la demande des développeurs pour ces machines, notamment dans un contexte de rareté perturbant le marché.
Les revenus de Mac s'élèvent à 8,4 milliards de dollars ce trimestre, en hausse de 6 % par rapport à la même période l'année précédente. Bien que cette augmentation ne soit pas spectaculaire, le facteur limitant est une contrainte d'offre, et non de demande. Les configurations Mac mini et Mac Studio avec une mémoire élevée ne sont pas seulement en retard sur le marché, certaines ont même été retirées du site Apple Store.
Le modèle de base du Mac mini à 599 $ est épuisé aux États-Unis. Aucune livraison à domicile ni retrait en magasin n'est actuellement disponible. Les configurations mises à niveau avec 64 Go de mémoire nécessitent un délai de livraison de 16 à 18 semaines. Les modèles Mac Studio avec 512 Go de mémoire unifiée ont été complètement retirés du magasin. Les revendeurs sur eBay ont rapidement saisi cette opportunité, faisant grimper le prix du modèle de base à près du double du prix de vente au détail.
Quel est le catalyseur de tout cela ? La croissance d'OpenClaw et des agents intensifs en mémoire.
Cadre open source d'agents d'intelligence artificielle — construit par Peter Sternberg — est désormais pris en charge par OpenAI. Après la compétition avec Meta, le projet a recueilli plus de 323 000 étoiles sur GitHub, devenant la méthode la plus rapide pour les particuliers et les petites équipes d'exécuter des agents AI persistants localement. Le matériel de référence non officiel pour exécuter ce projet est devenu presque instantanément le Mac mini.
Mais ce n'est pas le résultat d'une campagne de marketing.
La plupart des personnes qui rapportent des problèmes de pénurie de Mac ignorent un point : depuis des années, Apple a eu presque aucune influence dans le domaine des charges de travail IA sérieuses. Avant que les agents IA ne deviennent courants, les gens se plaignaient que l'exécution de LLM, Stable Diffusion ou tout autre type de logiciel IA domestique était extrêmement lente et presque inutilisable. À l'époque, les performances des Mac M2 équivalaient à celles d'une GPU de 2019. Apple a refusé d'adopter CUDA ou d'utiliser la technologie Nvidia, privilégiant plutôt sa technologie MLX, ce qui la rend aussi insignifiante dans le domaine de l'IA que dans celui des jeux.
NVIDIA domine le secteur car son framework de programmation GPU propriétaire, CUDA, est la base de l'entraînement et de l'inférence des modèles. Toute la pile technologique de l'intelligence artificielle est construite autour de celui-ci. Apple n'avait à l'époque aucun produit pouvant lui faire concurrence. Personne ne voulait effectuer une inférence locale sur un Mac.
Mais CUDA a un secret bien gardé : la limitation de la mémoire vidéo.
Même la meilleure carte graphique grand public d’NVIDIA, la RTX 5090, ne possède que 32 Go de mémoire vidéo. C’est une limite physique. Les modèles dépassant 32 Go de mémoire vidéo ne peuvent pas fonctionner à pleine vitesse sur cette carte — une partie des données doit être stockée dans la mémoire système plus lente, et la transmission via le bus PCIe ralentit considérablement les performances. Pour exécuter sur du matériel NVIDIA un modèle complexe de 70 milliards de paramètres, vous aurez besoin de plusieurs cartes graphiques, d’un rack serveur, d’une consommation énergétique massive et d’un investissement de plusieurs milliers de dollars.
L'architecture de mémoire unifiée (UMA) d'Apple résout ce problème d'une manière que CUDA ne peut pas accomplir. Sur les puces Apple Silicon, le CPU, le GPU et l'engine de neurones partagent un même pool de mémoire physique. Pas de mémoire vidéo dédiée, pas de bus PCIe à traverser. Un Mac mini équipé de 64 Go de mémoire peut charger un modèle de 70 milliards de paramètres, tandis qu'une carte graphique RTX 5090 à 1800 $ ne peut tout simplement pas le faire.
Puce M4 Ultra — cœur de la configuration haut de gamme de Mac Studio — prend en charge jusqu'à 192 Go de mémoire unifiée. Cela suffit pour exécuter localement sur une seule machine des modèles de 100 milliards de paramètres. Pas besoin de serveur, ni de frais mensuels dans le cloud.
OpenClaw rend ce compromis évident. Étant donné qu'il exécute localement un agent qui se connecte à vos fichiers, applications et messages, les utilisateurs ont besoin d'une machine capable de gérer la charge d'inférence, sans avoir à louer des ressources de calcul dans le cloud. Un Mac mini équipé de 32 Go de mémoire unifiée peut exécuter facilement des modèles de 30 milliards de paramètres. Et un Mac Studio avec 128 Go de mémoire peut gérer des modèles que la plupart des développeurs n'auraient pas pu traiter il y a un an sans disposer d'un cluster GPU professionnel.
Un Mac à vitesse plus lente mais capable d'exécuter un modèle d'IA puissant est bien meilleur qu'une carte graphique Nvidia performante qui ne parvient pas à charger ce modèle.
Le résultat : les développeurs commencent à acheter des Mac mini comme ils achetaient autrefois des Raspberry Pi — en achetant plusieurs unités à la fois, en les considérant comme de l'infrastructure plutôt que comme des ordinateurs personnels. La chaîne d'approvisionnement d'Apple n'a jamais été conçue pour ce modèle.
En outre, une pénurie plus générale de mémoire a aggravé ce problème. IDC prévoit que la demande accrue de serveurs d'intelligence artificielle entraînera une pénurie de puces mémoire, ce qui devrait entraîner une baisse de 11,3 % des livraisons mondiales d'ordinateurs personnels en 2026. Apple est actuellement en concurrence avec les géants de l'infrastructure de centres de données pour accéder aux mêmes fournitures de mémoire.
KuCoin a déclaré que l'équilibre entre l'offre et la demande pour le Mac mini et le Studio pourrait prendre « plusieurs mois ». Une mise à jour avec la puce M5 est prévue pour la fin de 2026, ce qui pourrait soulager la pression sur l'offre et la demande — mais les acheteurs actuels doivent soit attendre, soit payer un prix exorbitant sur le marché noir.
En 2026, le lancement du Mac mini est plus urgent qu'à tout moment de ses 20 ans d'histoire — et il ne lui faut qu'une aide provenant d'un projet open source totalement indépendant d'Apple pour y parvenir.
