OpenRouter Meluncurkan API Generasi Video, Mengintegrasikan Sora 2, Veo 3.1, Seedance

iconKuCoinFlash
Bagikan
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRingkasan

expand icon
OpenRouter, pemain utama di bidang agregasi model AI, mengumumkan peluncuran API generasi video pada 16 April (UTC+8), menandai pembaruan signifikan dalam berita AI + kripto. API ini mendukung generasi teks-ke-video dan gambar-ke-video serta mengintegrasikan Seedance 2.0/1.5, Veo 3.1, Wan 2.7/2.6, dan Sora 2 Pro. Platform ini menggunakan skema terpadu untuk menyederhanakan akses, secara otomatis mengarahkan permintaan berdasarkan input. Pengembang dapat memeriksa kemampuan model di `/api/v1/videos/models`. Proses dilakukan secara asinkron karena waktu generasi video. OpenRouter juga merilis aplikasi demo untuk integrasi model LLM, gambar, dan video, menambah nilai pada pembaruan berita on-chain.

Berita ME, 16 April (UTC+8), menurut pemantauan Beating, platform agregasi model AI OpenRouter secara resmi meluncurkan API generasi video, awalnya mendukung teks-ke-video dan gambar-ke-video, dengan integrasi Seedance 2.0/1.5, Veo 3.1, Wan 2.7/2.6, dan Sora 2 Pro, dan akan terus diperluas. Fragmentasi API di bidang generasi video jauh lebih parah daripada model teks: setiap penyedia memiliki format permintaan berbeda, penamaan parameter berbeda, satuan penagihan berbeda, bahkan kemampuan berbeda dalam keluarga model yang sama (teks-ke-video, gambar-ke-video, generasi karakter referensi) sering kali terkait dengan endpoint yang berbeda. Pendekatan OpenRouter adalah membangun satu schema seragam di lapisan atas, yang secara otomatis merutekan permintaan ke endpoint yang tepat berdasarkan parameter. Jika lampiran gambar disertakan, maka akan menggunakan endpoint gambar-ke-video; jika karakter referensi ditentukan, maka akan menggunakan endpoint konsistensi karakter—pengembang tidak perlu memperhatikan perbedaan di tingkat bawah. Normalisasi parameter juga mencakup detail-detail yang sering menjadi jebakan. Misalnya, Veo 3.1 mendukung fragmen 4, 6, dan 8 detik, sedangkan Wan 2.6 mendukung 5 atau 10 detik; mengirim durasi yang salah akan langsung menghasilkan kesalahan. OpenRouter menyediakan endpoint untuk memeriksa kemampuan model `/api/v1/videos/models`, yang mengembalikan resolusi, durasi, rasio aspek, harga, dan parameter khusus model untuk setiap model; pengembang atau agen pemrograman cukup memeriksanya sekali sebelum memanggil untuk menghindari percobaan dan kesalahan. Karena generasi video memakan waktu dalam hitungan menit, API menggunakan mode asinkron: setelah mengirimkan prompt, sistem mengembalikan ID tugas, dan video dapat diambil setelah selesai. OpenRouter juga melepaskan aplikasi demonstrasi alur kerja multimodal secara open-source, yang menunjukkan alur串联 antara LLM yang menghasilkan prompt terperinci, model gambar yang menghasilkan karakter, dan model video yang menghasilkan adegan. Ini juga merupakan nilai paling langsung dari integrasi generasi video ke dalam routing terpadu: pengembang dapat menggabungkan model teks, gambar, dan video dalam satu API yang sama tanpa perlu mengintegrasikan SDK masing-masing penyedia secara terpisah. (Sumber: BlockBeats)

Penafian: Informasi pada halaman ini mungkin telah diperoleh dari pihak ketiga dan tidak mencerminkan pandangan atau opini KuCoin. Konten ini disediakan hanya untuk tujuan informasi umum, tanpa representasi atau jaminan apa pun, dan tidak dapat ditafsirkan sebagai saran keuangan atau investasi. KuCoin tidak bertanggung jawab terhadap segala kesalahan atau kelalaian, atau hasil apa pun yang keluar dari penggunaan informasi ini. Berinvestasi di aset digital dapat berisiko. Harap mengevaluasi risiko produk dan toleransi risiko Anda secara cermat berdasarkan situasi keuangan Anda sendiri. Untuk informasi lebih lanjut, silakan lihat Ketentuan Penggunaan dan Pengungkapan Risiko.