Berita ME, 16 April (UTC+8), menurut pemantauan Beating, platform agregasi model AI OpenRouter secara rasmi melancarkan API penghasil video, dengan sokongan pertama untuk teks-ke-video dan gambar-ke-video, serta mengintegrasikan Seedance 2.0/1.5, Veo 3.1, Wan 2.7/2.6, dan Sora 2 Pro, dengan perluasan lanjut akan datang. Fragmentasi API dalam bidang penghasilan video jauh lebih teruk berbanding model teks: setiap pihak menggunakan format permintaan berbeza, penamaan parameter berbeza, unit penagihan berbeza, dan bahkan kemampuan berbeza dalam keluarga model yang sama (teks-ke-video, gambar-ke-video, penghasilan peranan rujukan) sering kali berkaitan dengan endpoint berbeza. Pendekatan OpenRouter adalah membina satu schema seragam di peringkat atas, yang secara automatik menghala permintaan ke endpoint yang betul berdasarkan parameter permintaan. Jika gambar disertakan, ia akan menggunakan endpoint gambar-ke-video; jika peranan rujukan ditentukan, ia akan menggunakan endpoint konsistensi peranan—pengembang tidak perlu mengambil kira perbezaan bawah lapisan. Normalisasi parameter juga merangkumi butiran yang mudah disalahgunakan. Sebagai contoh, Veo 3.1 menyokong fragmen 4, 6, dan 8 saat, manakala Wan 2.6 menyokong 5 atau 10 saat; penghantaran panjang masa yang salah akan menghasilkan ralat. OpenRouter menyediakan endpoint untuk menyiasat kemampuan model `/api/v1/videos/models`, yang mengembalikan resolusi, panjang masa, nisbah aspek, harga, dan parameter khas model untuk setiap model—pengembang atau agen pemrograman boleh menyiasat sekali sebelum memanggil untuk mengelakkan cuba-cuba. Disebabkan penghasilan video mengambil masa dalam minit, API menggunakan mod asinkron: selepas menghantar petunjuk, ia mengembalikan ID tugas, dan video boleh diambil selepas selesai. OpenRouter juga membuka sumber satu aplikasi demonstrasi aliran multimodal yang menunjukkan aliran berurutan di mana LLM menghasilkan petunjuk terperinci, model gambar menghasilkan peranan, dan model video menghasilkan adegan. Ini juga merupakan nilai paling langsung selepas penggabungan penghasilan video ke dalam laluan seragam: pengembang boleh menggabungkan model teks, gambar, dan video dalam satu API yang sama tanpa perlu mengintegrasikan SDK masing-masing. (Sumber: BlockBeats)
OpenRouter Melancarkan API Penghasilan Video, Mengintegrasikan Sora 2, Veo 3.1, Seedance
KuCoinFlashKongsi






OpenRouter, pemain utama dalam ruang pengumpulan model AI, mengumumkan pelancaran API penghasilan video pada 16 April (UTC+8), menandakan pembaruan penting dalam berita AI + kripto. API ini menyokong penghasilan teks-ke-video dan gambar-ke-video, serta mengintegrasikan Seedance 2.0/1.5, Veo 3.1, Wan 2.7/2.6, dan Sora 2 Pro. Platform ini menggunakan skema seragam untuk mempermudah akses, secara automatik menghala permintaan berdasarkan input. Pembangun boleh memeriksa kemampuan model di `/api/v1/videos/models`. Pemprosesan adalah asinkron kerana masa penghasilan video. OpenRouter juga melancarkan aplikasi demo untuk integrasi model LLM, gambar, dan video, menambah nilai kepada kemas kini berita atas rantai.
Sumber:Tunjukkan artikel asal
Penafian: Maklumat yang terdapat pada halaman ini mungkin telah diperoleh daripada pihak ketiga dan tidak semestinya menggambarkan pandangan atau pendapat KuCoin. Kandungan ini adalah disediakan bagi tujuan maklumat umum sahaja, tanpa sebarang perwakilan atau waranti dalam apa jua bentuk, dan juga tidak boleh ditafsirkan sebagai nasihat kewangan atau pelaburan. KuCoin tidak akan bertanggungjawab untuk sebarang kesilapan atau pengabaian, atau untuk sebarang akibat yang terhasil daripada penggunaan maklumat ini.
Pelaburan dalam aset digital boleh membawa risiko. Sila menilai risiko produk dan toleransi risiko anda dengan teliti berdasarkan keadaan kewangan anda sendiri. Untuk maklumat lanjut, sila rujuk kepada Terma Penggunaan dan Pendedahan Risiko kami.