Google lanza la octava generación de TPU con chips separados para entrenamiento e inferencia

iconKuCoinFlash
Compartir
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconResumen

expand icon
Las noticias on-chain se hicieron públicas el 22 de abril, cuando el CEO de Google, Sundar Pichai, anunció la TPU de octava generación en Cloud Next 2026. La TPU 8t maneja el entrenamiento con 121 ExaFlops y 2 PB de memoria, mientras que la TPU 8i se enfoca en la inferencia con 288 GB de HBM y 384 MB de SRAM. Ambos chips funcionan con el CPU Axion de Google y estarán disponibles en el AI Hypercomputer en 2026. Los círculos de noticias cripto están monitoreando cómo este cambio en el hardware impacta los proyectos de blockchain impulsados por IA.

Noticias de ME, 22 de abril (UTC+8): según el monitoreo de Beating, el CEO de Google, Sundar Pichai, lanzó en Cloud Next 2026 la octava generación de TPU, separando por primera vez el entrenamiento y la inferencia en dos chips independientes. El TPU 8t está orientado al entrenamiento. Un solo supernodo puede conectar 9.600 chips TPU, ofreciendo 121 ExaFlops de potencia de cómputo y 2 PB de memoria compartida de alto ancho de banda, con un rendimiento tres veces superior al de la generación anterior Ironwood y una eficiencia energética hasta el doble. El ancho de banda de interconexión entre chips se duplica; combinado con la nueva topología de red Virgo, permite agrupar hasta un millón de chips en un único clúster lógico, logrando una escala casi lineal. Google afirma que su objetivo es reducir el ciclo de desarrollo de modelos de vanguardia de meses a semanas. El TPU 8i está orientado a la inferencia. Un solo pod conecta 1.152 chips TPU, equipados con 288 GB de memoria de alto ancho de banda y 384 MB de SRAM integrada, tres veces más que en Ironwood, para mantener los datos del modelo activo lo más posible dentro del chip. La nueva topología de red Boardfly reduce significativamente la latencia; Google afirma que, bajo el mismo costo, puede atender casi el doble de clientes, con el objetivo de soportar millones de agentes funcionando simultáneamente. Ambos chips están alojados en los CPUs Axion de arquitectura Arm desarrollados por Google, junto con refrigeración líquida de cuarta generación. Se planea lanzarlos a finales de 2026 en la plataforma Google Cloud AI Hypercomputer, ofreciéndolos junto a las instancias GPU de NVIDIA. (Fuente: BlockBeats)

Descargo de responsabilidad: La información contenida en esta página puede proceder de terceros y no refleja necesariamente los puntos de vista u opiniones de KuCoin. Este contenido se proporciona solo con fines informativos generales, sin ninguna representación o garantía de ningún tipo, y tampoco debe interpretarse como asesoramiento financiero o de inversión. KuCoin no es responsable de ningún error u omisión, ni de ningún resultado derivado del uso de esta información. Las inversiones en activos digitales pueden ser arriesgadas. Evalúa con cuidado los riesgos de un producto y tu tolerancia al riesgo en función de tus propias circunstancias financieras. Para más información, consulta nuestras Condiciones de uso y la Declaración de riesgos.