Google lance le TPU de 8e génération avec des puces dédiées à l'entraînement et à l'inférence

iconKuCoinFlash
Partager
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRésumé

expand icon
Des nouvelles sur la blockchain ont été révélées le 22 avril, lorsque le PDG de Google, Sundar Pichai, a annoncé le TPU de 8e génération lors de Cloud Next 2026. Le TPU 8t gère l'entraînement avec 121 ExaFlops et 2 To de mémoire, tandis que le TPU 8i se concentre sur l'inférence avec 288 Go de HBM et 384 Mo de SRAM. Les deux puces fonctionnent sur le CPU Axion de Google et seront disponibles sur l'AI Hypercomputer en 2026. Les cercles d'actualités crypto suivent l'impact de ce changement matériel sur les projets blockchain pilotés par l'IA.

Selon les nouvelles de ME, le 22 avril (UTC+8), selon les données de Beating, le PDG de Google, Sundar Pichai, a présenté la huitième génération de TPU lors de Cloud Next 2026, séparant pour la première fois l'entraînement et l'inférence en deux puces indépendantes. Le TPU 8t est dédié à l'entraînement. Un seul super-nœud peut connecter 9 600 puces TPU, offrant 121 ExaFlops de puissance de calcul et 2 To de mémoire partagée à haut débit, avec une performance de traitement trois fois supérieure à celle de la génération précédente Ironwood et une efficacité énergétique pouvant être doublée. La bande passante d'interconnexion entre puces est doublée, et avec la nouvelle topologie réseau Virgo, jusqu'à un million de puces peuvent être regroupées en un seul cluster logique, permettant une extension quasi linéaire. Google vise à réduire le cycle de développement des modèles de pointe de plusieurs mois à quelques semaines. Le TPU 8i est dédié à l'inférence. Un seul pod connecte 1 152 puces TPU, équipées de 288 Go de mémoire à haut débit et de 384 Mo de SRAM intégrée, soit trois fois plus que sur Ironwood, afin de conserver autant que possible les données des modèles actifs sur la puce. La nouvelle topologie réseau Boardfly réduit considérablement la latence ; selon Google, cela permet de servir près de deux fois plus de clients au même coût, avec pour objectif de supporter des millions d'agents fonctionnant simultanément. Les deux puces sont hébergées sur les processeurs Axion, conçus en interne par Google et basés sur l'architecture Arm, associés à un système de refroidissement liquide de quatrième génération. Elles seront disponibles fin 2026 sur la plateforme Google Cloud AI Hypercomputer, en parallèle avec les instances GPU NVIDIA. (Source : BlockBeats)

Clause de non-responsabilité : les informations sur cette page peuvent avoir été obtenues auprès de tiers et ne reflètent pas nécessairement les points de vue ou opinions de KuCoin. Ce contenu est fourni à titre informatif uniquement, sans aucune représentation ou garantie d’aucune sorte, et ne doit pas être interprété comme un conseil en investissement. KuCoin ne sera pas responsable des erreurs ou omissions, ni des résultats résultant de l’utilisation de ces informations. Les investissements dans les actifs numériques peuvent être risqués. Veuillez évaluer soigneusement les risques d’un produit et votre tolérance au risque en fonction de votre propre situation financière. Pour plus d’informations, veuillez consulter nos conditions d’utilisation et divulgation des risques.