Notícia da ME, 22 de abril (UTC+8), segundo monitoramento da Beating, o CEO do Google, Sundar Pichai, lançou o oitavo TPU no Cloud Next 2026, separando pela primeira vez treinamento e inferência em dois chips independentes. O TPU 8t é voltado para treinamento. Um único supernó pode se conectar a 9.600 TPU, oferecendo 121 ExaFlops de poder de processamento e 2 PB de memória de alta largura de banda compartilhada, com desempenho três vezes superior ao da geração anterior Ironwood e eficiência energética aumentada em até duas vezes. A largura de banda de interconexão entre chips dobrou, combinada com a nova topologia de rede Virgo, permitindo a formação de um único cluster lógico com até 1 milhão de chips, alcançando escala quase linear. O Google afirma que seu objetivo é reduzir o ciclo de desenvolvimento de modelos de ponta de meses para semanas. O TPU 8i é voltado para inferência. Um único pod conecta 1.152 TPU, equipado com 288 GB de memória de alta largura de banda e 384 MB de SRAM integrada, três vezes mais que o Ironwood, para manter os dados do modelo ativo o máximo possível dentro do chip. A nova topologia de rede Boardfly reduz significativamente a latência, e o Google afirma que, sob o mesmo custo, pode atender quase o dobro do número de clientes, com o objetivo de suportar milhões de agentes operando simultaneamente. Ambos os chips são hospedados no CPU Axion, de arquitetura Arm desenvolvido pelo Google, com refrigeração líquida de quarta geração. Estão programados para serem disponibilizados oficialmente na plataforma Google Cloud AI Hypercomputer no final de 2026, oferecidos em paralelo com instâncias de GPU da NVIDIA. (Fonte: BlockBeats)
O Google lança o TPU de oitava geração com chips separados para treinamento e inferência
KuCoinFlashCompartilhar






Notícias on-chain surgiram em 22 de abril, quando o CEO do Google, Sundar Pichai, anunciou o TPU de 8ª geração no Cloud Next 2026. O TPU 8t lida com treinamento com 121 ExaFlops e 2PB de memória, enquanto o TPU 8i se concentra em inferência com 288GB de HBM e 384MB de SRAM. Ambos os chips operam com o CPU Axion da Google e estarão disponíveis no AI Hypercomputer em 2026. Os círculos de notícias cripto estão observando como essa mudança de hardware impacta projetos de blockchain impulsionados por IA.
Fonte:Mostrar original
Aviso legal: as informações nesta página podem ter sido obtidas de terceiros e não refletem necessariamente os pontos de vista ou opiniões da KuCoin. Este conteúdo é fornecido apenas para fins informativos gerais, sem qualquer representação ou garantia de qualquer tipo, nem deve ser interpretado como aconselhamento financeiro ou de investimento. A KuCoin não é responsável por quaisquer erros ou omissões, ou por quaisquer resultados do uso destas informações.
Os investimentos em ativos digitais podem ser arriscados. Avalie cuidadosamente os riscos de um produto e a sua tolerância ao risco com base nas suas próprias circunstâncias financeiras. Para mais informações, consulte nossos termos de uso e divulgação de risco.