Odaily Planet Daily : Le 16 mars, heure locale, lors de la NVIDIA GTC 2026, le fondateur de NVIDIA, Jensen Huang, a partagé la vision globale de l'entreprise pour l'avenir de l'industrie de l'intelligence artificielle : depuis la nouvelle génération d'architecture de calcul IA, le modèle économique des centres de données à l'ère de l'inférence, jusqu'à l'écosystème logiciel et les alliances industrielles construits autour des agents. La conférence a présenté non seulement une mise à niveau d'un seul produit matériel, mais un ensemble complet d'infrastructures IA centrées sur la puissance de calcul. Dans son discours, Jensen Huang a avancé une prédiction audacieuse : d'ici 2027, le marché mondial des puces et infrastructures IA pourrait atteindre 1 000 milliards de dollars.
En outre, au-delà de la technologie, Huang Renxun a proposé une nouvelle narration industrielle pour l’IA : « Les centres de données sont des usines de production de tokens ; l’inférence est la charge de travail, les tokens sont de nouveaux biens, et la puissance de calcul équivaut aux revenus ; à l’avenir, chaque PDG devra surveiller l’efficacité de sa propre usine de tokens. » Selon lui, le développement de l’IA traverse un nouveau point de bascule. De la transition des chatbots vers des systèmes dotés de capacités d’inférence, puis vers des agents capables d’exécuter des tâches, chaque saut de capacité augmente considérablement la puissance de calcul requise pour une seule inférence, tout en stimulant une croissance rapide de l’utilisation globale.
Sur la base de cette tendance, NVIDIA a introduit un nouveau modèle de tarification en couches pour ses services IA, allant de la couche gratuite à la couche Ultra, correspondant à différentes tailles de modèles, longueurs de contexte et vitesses de réponse, ainsi qu'à des prix en tokens variables. Dans ce cadre, les infrastructures de calcul déterminent directement la viabilité économique des services IA, tandis que les services IA les plus avancés nécessitent des plateformes de calcul plus puissantes. (AIPress)
