Berita ME, 21 April (UTC+8), menurut pemantauan Beating, jurutera AI utama Intel, Haihao Shen, mengumumkan bahawa Intel telah mengunggah tiga versi kuantisasi INT4 bagi model video Wan 2.2 Alibaba di Hugging Face: T2V-A14B (teks ke video), I2V-A14B (gambar ke video), dan TI2V-5B (campuran teks dan gambar ke video), semuanya dikompres menggunakan AutoRound ke W4A16. Shen sendiri merupakan salah satu penulis utama alat kuantisasi AutoRound ini. Kuantisasi INT4 mengurangkan setiap bobot dari 2 bait BF16 menjadi 0.5 bait, menjadikan saiz bobot kira-kira seperempat versi asal. Dua model A14B asalnya menggunakan arsitektur MoE dengan jumlah parameter 27B dan 14B yang diaktifkan setiap langkah; dokumentasi rasmi menyatakan bahawa untuk menjalankan 720P pada satu kad, diperlukan sekurang-kurangnya 80GB VRAM; TI2V-5B adalah model padat yang asalnya boleh menjalankan 720P@24fps pada 4090. Intel tidak mengumumkan perbandingan VRAM dan kualiti gambar hasil kuantisasi, sehingga menunggu replikasi pihak ketiga. Rantai inferens untuk ketiga-tiga model ini tidak menggunakan vLLM utama; README mengarahkan ke cabang khas Intel, vllm-omni (feats/ar-w4a16-wan22), yang perlu dipasang sebelum perkhidmatan boleh dijalankan. (Sumber: BlockBeats)
Intel Mengeluarkan Tiga Versi Kuantisasi INT4 bagi Model Video Alibaba Wan2.2
KuCoinFlashKongsi






Pada 21 April (UTC+8), jurutera AI utama Intel, Haihao Shen, mengumumkan pelancaran tiga versi kuantisasi INT4 bagi model video Wan2.2 Alibaba di Hugging Face. Model-model tersebut termasuk T2V-A14B, I2V-A14B, dan TI2V-5B, kesemuanya dikompres menggunakan alat AutoRound Intel ke W4A16. Kuantisasi INT4 mengurangkan setiap berat daripada 2 bait (BF16) kepada 0.5 bait, menjadikan saiz berat kira-kira seperempat daripada asalnya. Model A14B menggunakan arsitektur MoE dengan 27B parameter keseluruhan dan 14B aktif setiap langkah, memerlukan sekurang-kurangnya 80GB memori GPU untuk video 720P pada satu kad. TI2V-5B adalah model padat yang boleh menjalankan 720P@24fps pada 4090. Intel belum mengungkapkan prestasi memori dan kualiti model-model kuantisasi tersebut, yang memerlukan ujian pihak ketiga. Model-model ini tidak menggunakan saluran inferensi vLLM utama tetapi merujuk kepada cabang dalaman Intel vllm-omni (feats/ar-w4a16-wan22), yang mesti dipasang untuk menjalankan perkhidmatan tersebut. Pelancaran ini menonjolkan peralihan berterusan dalam kecekapan pengkomputan, dengan implikasi terhadap sistem Bukti Kerja (PoW) dan Bukti Bertaruh (PoS).
Sumber:Tunjukkan artikel asal
Penafian: Maklumat yang terdapat pada halaman ini mungkin telah diperoleh daripada pihak ketiga dan tidak semestinya menggambarkan pandangan atau pendapat KuCoin. Kandungan ini adalah disediakan bagi tujuan maklumat umum sahaja, tanpa sebarang perwakilan atau waranti dalam apa jua bentuk, dan juga tidak boleh ditafsirkan sebagai nasihat kewangan atau pelaburan. KuCoin tidak akan bertanggungjawab untuk sebarang kesilapan atau pengabaian, atau untuk sebarang akibat yang terhasil daripada penggunaan maklumat ini.
Pelaburan dalam aset digital boleh membawa risiko. Sila menilai risiko produk dan toleransi risiko anda dengan teliti berdasarkan keadaan kewangan anda sendiri. Untuk maklumat lanjut, sila rujuk kepada Terma Penggunaan dan Pendedahan Risiko kami.