PyTorch optimiza el rendimiento de LayerNorm y RMSNorm en GPUs H100 y B200

iconKuCoinFlash
Compartir
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconResumen

expand icon
PyTorch lanzó un anuncio de proyecto que optimiza el rendimiento de LayerNorm y RMSNorm en las GPU NVIDIA H100 y B200. Utilizando torch.compile, el equipo mejoró la eficiencia por kernel y habilitó la fusión automática. Esta actualización forma parte de las noticias continuas en cadena de la comunidad de aprendizaje profundo. Más detalles están disponibles en el blog oficial.

Noticias de ME, 8 de abril (UTC+8): Recientemente, el equipo oficial de PyTorch evaluó y mejoró el rendimiento de dos métodos básicos de normalización, LayerNorm y RMSNorm, al usar torch.compile en las GPU NVIDIA H100 y B200. Su objetivo es lograr un rendimiento cercano al estado del arte a nivel de cada kernel, al tiempo que proporciona fusión automática. El comunicado oficial incluye un enlace a contenido más detallado. (Fuente: InFoQ)

Descargo de responsabilidad: La información contenida en esta página puede proceder de terceros y no refleja necesariamente los puntos de vista u opiniones de KuCoin. Este contenido se proporciona solo con fines informativos generales, sin ninguna representación o garantía de ningún tipo, y tampoco debe interpretarse como asesoramiento financiero o de inversión. KuCoin no es responsable de ningún error u omisión, ni de ningún resultado derivado del uso de esta información. Las inversiones en activos digitales pueden ser arriesgadas. Evalúa con cuidado los riesgos de un producto y tu tolerancia al riesgo en función de tus propias circunstancias financieras. Para más información, consulta nuestras Condiciones de uso y la Declaración de riesgos.