OpenRouter запускає API генерації відео, інтегруючи Sora 2, Veo 3.1, Seedance

iconKuCoinFlash
Поділитися
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconКороткий зміст

expand icon
OpenRouter, ключовий гравець у сфері агрегації моделей ШІ, оголосив про запуск свого API для генерації відео 16 квітня (UTC+8), що стало значним оновленням у новинах про ШІ + криптовалюти. API підтримує генерацію відео з тексту та з зображення, а також інтегрує Seedance 2.0/1.5, Veo 3.1, Wan 2.7/2.6 та Sora 2 Pro. Платформа використовує єдину схему для спрощення доступу, автоматично маршрутизуючи запити на основі вхідних даних. Розробники можуть перевірити можливості моделей за адресою `/api/v1/videos/models`. Обробка відбувається асинхронно через тривалість генерації відео. OpenRouter також випустив демонстраційний додаток для інтеграції LLM, зображень та відеомоделей, додаючи цінність оновленням на ланцюзі.

ME News, 16 квітня (UTC+8), за даними моніторингу Beating, платформа агрегації моделей штучного інтелекту OpenRouter офіційно запустила API для генерації відео, на першому етапі підтримуючи текст до відео та зображення до відео, інтегруючи Seedance 2.0/1.5, Veo 3.1, Wan 2.7/2.6 та Sora 2 Pro, з подальшим розширенням. Фрагментація API в галузі генерації відео набагато серйозніша, ніж у текстових моделях: різні платформи використовують різні формати запитів, різні назви параметрів, різні одиниці оплати, а навіть різні можливості одного сімейства моделей (текст до відео, зображення до відео, генерація за референсним персонажем) часто відповідають різним ендпоінтам. Підхід OpenRouter полягає у створенні верхнього рівня єдиної схеми, яка автоматично маршрутизує запити до правильного ендпоінту на основі параметрів. Якщо надано зображення — використовується ендпоінт зображення до відео; якщо вказано референсного персонажа — використовується ендпоінт для збереження консистентності персонажа; розробникам не потрібно турбуватися про нижчий рівень відмінностей. Нормалізація параметрів також охоплює деталі, які часто призводять до помилок. Наприклад, Veo 3.1 підтримує фрагменти по 4, 6 і 8 секунд, Wan 2.6 — 5 або 10 секунд; якщо вказати неправильну тривалість — виникає помилка. OpenRouter надає ендпоінт для запиту можливостей моделей `/api/v1/videos/models`, який повертає підтримувану роздільну здатність, тривалість, співвідношення сторін, ціну та специфічні параметри кожної моделі; розробники або програмні агенти можуть перевірити це один раз перед викликом, щоб уникнути помилок. Оскільки генерація відео триває хвилини, API працює в асинхронному режимі: після надсилання промпту повертається ID завдання, а відео отримують після завершення. OpenRouter також випустив відкритий демонстраційний додаток для багатомодального робочого процесу, що показує послідовний процес: LLM генерує детальний промпт, модель зображень створює персонажа, а модель відео генерує сцену. Це й є найбільш прямою перевагою інтеграції в єдиний маршрут: розробники можуть поєднувати текстові, зображення та відео моделі через один API, не підключаючись окремо до кожного SDK. (Джерело: BlockBeats)

Відмова від відповідальності: Інформація на цій сторінці може бути отримана від третіх осіб і не обов'язково відображає погляди або думки KuCoin. Цей контент надається лише для загального інформування, без будь-яких запевнень або гарантій, а також не може розглядатися як фінансова або інвестиційна порада. KuCoin не несе відповідальності за будь-які помилки або упущення, а також за будь-які результати, отримані в результаті використання цієї інформації. Інвестиції в цифрові активи можуть бути ризикованими. Будь ласка, ретельно оцініть ризики продукту та свою толерантність до ризику, виходячи з ваших власних фінансових обставин. Для отримання додаткової інформації, будь ласка, зверніться до наших Умов використання та Розкриття інформації про ризики.