Theo tin tức từ ME News, vào ngày 16 tháng 4 (UTC+8), theo giám sát của Beating, nền tảng tổng hợp mô hình AI OpenRouter chính thức ra mắt API tạo video, ban đầu hỗ trợ văn bản-sang-video và hình ảnh-sang-video, tích hợp Seedance 2.0/1.5, Veo 3.1, Wan 2.7/2.6 và Sora 2 Pro, và sẽ tiếp tục mở rộng trong tương lai. Sự phân mảnh của API trong lĩnh vực tạo video nghiêm trọng hơn nhiều so với mô hình văn bản: mỗi nền tảng có định dạng yêu cầu khác nhau, cách đặt tên tham số khác nhau, đơn vị tính phí khác nhau, thậm chí các khả năng khác nhau trong cùng một gia đình mô hình (văn bản-sang-video, hình ảnh-sang-video, tạo nhân vật tham chiếu) thường tương ứng với các điểm cuối khác nhau. Cách tiếp cận của OpenRouter là xây dựng một schema thống nhất ở lớp trên, tự động định tuyến yêu cầu đến điểm cuối chính xác dựa trên các tham số đầu vào. Nếu có hình ảnh đính kèm, hệ thống sẽ tự động sử dụng điểm cuối hình ảnh-sang-video; nếu chỉ định nhân vật tham chiếu, hệ thống sẽ sử dụng điểm cuối đảm bảo tính nhất quán nhân vật—người phát triển không cần quan tâm đến sự khác biệt ở cấp底层. Việc chuẩn hóa tham số cũng bao phủ các chi tiết dễ gây lỗi. Ví dụ: Veo 3.1 hỗ trợ đoạn 4, 6, 8 giây; Wan 2.6 hỗ trợ 5 hoặc 10 giây—nếu truyền sai thời lượng sẽ lập tức báo lỗi. OpenRouter cung cấp điểm cuối truy vấn khả năng mô hình `/api/v1/videos/models`, trả về độ phân giải, thời lượng, tỷ lệ khung hình, giá cả và các tham số đặc trưng của từng mô hình; người phát triển hoặc đại diện lập trình chỉ cần kiểm tra một lần trước khi gọi để tránh thử-sai. Vì quá trình tạo video mất vài phút, API sử dụng chế độ bất đồng bộ: sau khi gửi prompt, hệ thống trả về ID tác vụ và người dùng lấy video sau khi hoàn thành. OpenRouter đồng thời đã mở nguồn một ứng dụng minh họa luồng làm việc đa phương tiện, thể hiện quy trình kết nối: LLM tạo prompt chi tiết, mô hình hình ảnh tạo nhân vật, mô hình video tạo cảnh quay. Đây cũng là giá trị trực tiếp nhất của việc tích hợp video vào hệ thống định tuyến thống nhất: người phát triển có thể kết hợp các mô hình văn bản, hình ảnh và video trong cùng một API mà không cần kết nối riêng lẻ với từng SDK. (Nguồn: BlockBeats)
OpenRouter ra mắt API tạo video, tích hợp Sora 2, Veo 3.1, Seedance
KuCoinFlashChia sẻ






OpenRouter, một nhân tố then chốt trong lĩnh vực tổng hợp mô hình AI, đã công bố ra mắt API tạo video vào ngày 16 tháng 4 (UTC+8), đánh dấu một bước cập nhật quan trọng trong tin tức AI + crypto. API này hỗ trợ cả tạo video từ văn bản và tạo video từ hình ảnh, tích hợp Seedance 2.0/1.5, Veo 3.1, Wan 2.7/2.6 và Sora 2 Pro. Nền tảng sử dụng một lược đồ thống nhất để đơn giản hóa việc truy cập, tự động định tuyến yêu cầu dựa trên đầu vào. Các nhà phát triển có thể kiểm tra khả năng của các mô hình tại `/api/v1/videos/models`. Xử lý là không đồng bộ do thời gian tạo video. OpenRouter cũng đã phát hành một ứng dụng demo để tích hợp mô hình LLM, hình ảnh và video, mang lại giá trị bổ sung cho các bản cập nhật tin tức trên chuỗi.
Nguồn:Hiển thị bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể được lấy từ bên thứ ba và không nhất thiết phản ánh quan điểm hoặc ý kiến của KuCoin. Nội dung này chỉ được cung cấp cho mục đích thông tin chung, không có bất kỳ đại diện hay bảo đảm nào dưới bất kỳ hình thức nào và cũng không được hiểu là lời khuyên tài chính hay đầu tư. KuCoin sẽ không chịu trách nhiệm về bất kỳ sai sót hoặc thiếu sót nào hoặc về bất kỳ kết quả nào phát sinh từ việc sử dụng thông tin này.
Việc đầu tư vào tài sản kỹ thuật số có thể tiềm ẩn nhiều rủi ro. Vui lòng đánh giá cẩn thận rủi ro của sản phẩm và khả năng chấp nhận rủi ro của bạn dựa trên hoàn cảnh tài chính của chính bạn. Để biết thêm thông tin, vui lòng tham khảo Điều khoản sử dụng và Tiết lộ rủi ro của chúng tôi.