PyTorch оптимізував продуктивність LayerNorm і RMSNorm на GPU H100 і B200

iconKuCoinFlash
Поділитися
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconКороткий зміст

expand icon
PyTorch опублікував оголошення про проект, що оптимізує продуктивність LayerNorm і RMSNorm на GPU NVIDIA H100 і B200. Використовуючи torch.compile, команда покращила ефективність кожного ядра та увімкнула автоматичне об’єднання. Оновлення є частиною постійних новин з ланцюга від спільноти глибокого навчання. Більше деталей доступно у офіційному блозі.

ME News: 8 квітня (UTC+8) офіційний PyTorch оцінив та покращив продуктивність двох базових методів нормалізації — LayerNorm і RMSNorm — при використанні torch.compile на GPU NVIDIA H100 і B200. Метою є досягнення майже найкращої продуктивності на рівні окремих ядер разом із функцією автоматичного об’єднання. У офіційному повідомленні наведено посилання на більш детальну інформацію. (Джерело: InFoQ)

Відмова від відповідальності: Інформація на цій сторінці може бути отримана від третіх осіб і не обов'язково відображає погляди або думки KuCoin. Цей контент надається лише для загального інформування, без будь-яких запевнень або гарантій, а також не може розглядатися як фінансова або інвестиційна порада. KuCoin не несе відповідальності за будь-які помилки або упущення, а також за будь-які результати, отримані в результаті використання цієї інформації. Інвестиції в цифрові активи можуть бути ризикованими. Будь ласка, ретельно оцініть ризики продукту та свою толерантність до ризику, виходячи з ваших власних фінансових обставин. Для отримання додаткової інформації, будь ласка, зверніться до наших Умов використання та Розкриття інформації про ризики.