MEニュース:4月15日(UTC+8)、1M AI Newsの監視によると、Hugging FaceのCEOであるClem Delangueが、KernelsがHubに正式にリリースされたことを発表しました。GPU算子は、GPUのパフォーマンスを極限まで引き出すための低レベル最適化コードであり、推論およびトレーニングを1.7〜2.5倍高速化できますが、インストールはこれまで大きな課題でした。最も広く使われるFlashAttentionを例に取ると、ローカルでのコンパイルには約96GBのメモリと数時間が必要で、PyTorchやCUDAのバージョンがわずかにでも不一致だとエラーが発生し、多くの開発者がこのインストール段階で詰まってしまいました。Kernels Hubは、このコンパイル作業をクラウドに移行します。Hugging Faceは、さまざまなGPUとOS環境で事前に算子をコンパイル済みであり、開発者が1行のコードを記述するだけで、Hubがハードウェア環境を自動で認識し、数秒以内に事前コンパイル済みファイルをダウンロードして即座に利用可能になります。同じプロセス内で複数の異なるバージョンの算子を読み込むことができ、torch.compileとも互換性があります。Kernelsは昨年6月にテストリリースされ、本月よりHubの主要なリポジトリタイプとして昇格し、Models、Datasets、Spacesと並ぶ位置づけとなりました。現在、61個の事前コンパイル済み算子が用意されており、アテンション機構、正規化、混合エキスパートルーティング、量子化など一般的なシナリオをカバーしており、NVIDIA CUDA、AMD ROCm、Apple Metal、Intel XPUの4つのハードウェアアクセラレーションプラットフォームをサポートしています。これらはすでにHugging Faceの推論フレームワークTGIおよびTransformersライブラリに統合されています。(出典:BlockBeats)
Hugging Face、事前コンパイル済みGPUオペレーター用のKernels Hubをリリース
KuCoinFlash共有






Hugging FaceのCEOであるClem Delangueは、4月15日(UTC+8)にHub上でKernelsが公式リリースされたことを確認し、開発者にとって重要なオンチェーンニュースとなりました。Kernelsは事前コンパイル済みのGPUオペレーターを提供し、推論およびトレーニング速度を1.7〜2.5倍に向上させます。開発者は、Hugging Faceがクラウド上でコンパイルを処理するため、一行のコードでこれらのオペレーターをインストールできます。Hubは自動的にハードウェアをマッチングし、数秒でファイルを配信します。Kernelsは現在、トップレベルのリポジトリタイプとして、一般的なタスク向けに61のオペレーターを備え、NVIDIA CUDA、AMD ROCm、Apple Metal、Intel XPUをサポートしています。このトークンのリリース情報は、2025年6月のベータ段階の後に公開されました。
出典:原文を表示
免責事項: 本ページの情報はサードパーティからのものであり、必ずしもKuCoinの見解や意見を反映しているわけではありません。この内容は一般的な情報提供のみを目的として提供されており、いかなる種類の表明や保証もなく、金融または投資助言として解釈されるものでもありません。KuCoinは誤記や脱落、またはこの情報の使用に起因するいかなる結果に対しても責任を負いません。
デジタル資産への投資にはリスクが伴います。商品のリスクとリスク許容度をご自身の財務状況に基づいて慎重に評価してください。詳しくは利用規約およびリスク開示を参照してください。