Согласно новости ME, 16 апреля (UTC+8), по данным мониторинга Beating, платформа агрегации моделей ИИ OpenRouter официально запустила API для генерации видео, первоначально поддерживая текст в видео и изображение в видео, интегрировав Seedance 2.0/1.5, Veo 3.1, Wan 2.7/2.6 и Sora 2 Pro, с дальнейшим расширением. Фрагментация API в области генерации видео гораздо серьезнее, чем в текстовых моделях: у каждого провайдера разные форматы запросов, разные имена параметров, разные единицы оплаты, и даже различные возможности в рамках одной семейства моделей (текст в видео, изображение в видео, генерация по референсной роли) часто соответствуют разным конечным точкам. Подход OpenRouter заключается в создании единой схемы на верхнем уровне, автоматически маршрутизирующей запросы к правильной конечной точке на основе параметров запроса: если приложен изображение — используется конечная точка «изображение в видео», если указан референсный персонаж — используется конечная точка «согласованность персонажа»; разработчику не нужно заботиться о нижележащих различиях. Нормализация параметров также охватывает тонкие моменты, которые легко упустить. Например, Veo 3.1 поддерживает фрагменты длительностью 4, 6 и 8 секунд, Wan 2.6 — 5 или 10 секунд; при неверной продолжительности выдается ошибка. OpenRouter предоставляет конечную точку для запроса возможностей модели `/api/v1/videos/models`, возвращающую поддерживаемые разрешение, длительность, соотношение сторон, цену и специфические параметры каждой модели; разработчики или программные агенты могут проверить это один раз перед вызовом, чтобы избежать ошибок. Поскольку генерация видео занимает минуты, API использует асинхронный режим: после отправки промпта возвращается ID задачи, а видео можно получить после завершения. OpenRouter также открыл исходный код демонстрационного приложения для мультимодального рабочего процесса, демонстрирующего последовательный процесс: LLM генерирует детальный промпт, модель изображений создает персонажа, а модель видео генерирует сцену. Это и есть прямое преимущество интеграции генерации видео в единую маршрутизацию: разработчики могут комбинировать текстовые, изображения и видео-модели в рамках одного API без необходимости отдельно подключать SDK каждого провайдера. (Источник: BlockBeats)
OpenRouter запускает API генерации видео, интегрируя Sora 2, Veo 3.1, Seedance
KuCoinFlashПоделиться






OpenRouter, ключевой игрок в сфере агрегации ИИ-моделей, объявил о запуске своего API для генерации видео 16 апреля (UTC+8), что стало значительным обновлением в новостях ИИ + криптовалют. API поддерживает генерацию видео из текста и изображений и интегрирует Seedance 2.0/1.5, Veo 3.1, Wan 2.7/2.6 и Sora 2 Pro. Платформа использует унифицированную схему для упрощения доступа, автоматически маршрутизируя запросы на основе входных данных. Разработчики могут проверить возможности моделей по адресу `/api/v1/videos/models`. Обработка выполняется асинхронно из-за времени, необходимого для генерации видео. OpenRouter также выпустил демонстрационное приложение для интеграции LLM, изображений и видео-моделей, добавив ценность обновлениям на цепочке.
Источник:Показать оригинал
Отказ от ответственности: Информация на этой странице может быть получена от третьих лиц и не обязательно отражает взгляды или мнения KuCoin. Данный контент предоставляется исключительно в общих информационных целях, без каких-либо заверений или гарантий, а также не может быть истолкован как финансовый или инвестиционный совет. KuCoin не несет ответственности за ошибки или упущения, а также за любые результаты, полученные в результате использования этой информации.
Инвестиции в цифровые активы могут быть рискованными. Пожалуйста, тщательно оценивайте риски, связанные с продуктом, и свою устойчивость к риску, исходя из собственных финансовых обстоятельств. Для получения более подробной информации, пожалуйста, ознакомьтесь с нашими Условиями использования и Уведомлением о риске.