MEニュース:4月16日(UTC+8)、動察Beatingの監視によると、AIモデル統合プラットフォームOpenRouterが、ビデオ生成APIを正式にリリースしました。初期段階ではテキストからビデオへの生成と画像からビデオへの生成をサポートし、Seedance 2.0/1.5、Veo 3.1、Wan 2.7/2.6、Sora 2 Proを接続しています。今後もさらにモデルを拡充する予定です。 ビデオ生成分野におけるAPIの断片化は、テキストモデルよりもはるかに深刻です。各社のリクエスト形式、パラメータ名、課金単位が異なり、同じモデルファミリー内でもテキストからビデオ、画像からビデオ、参照キャラクター生成などの機能ごとに異なるエンドポイントが割り当てられるのが一般的です。OpenRouterは、上位層に一貫したスキーマを構築し、リクエストパラメータに基づいて自動的に適切なエンドポイントにルーティングするアプローチを採用しています。画像が付与されれば画像からビデオのエンドポイントへ、参照キャラクターが指定されればキャラクター一貫性エンドポイントへと自動的に処理が分岐し、開発者は下層の差異を意識する必要がありません。 パラメータの標準化には、誤りが起こりやすい細部もカバーされています。たとえば、Veo 3.1は4秒、6秒、8秒のセグメントをサポートし、Wan 2.6は5秒または10秒をサポートしますが、誤った長さを渡すと即座にエラーが発生します。OpenRouterはモデル能力照会エンドポイント`/api/v1/videos/models`を提供しており、各モデルが対応する解像度、長さ、アスペクト比、価格、およびモデル固有のパラメータを返します。開発者やプログラミングエージェントは、呼び出し前に一度このエンドポイントを参照することで試行錯誤を回避できます。 ビデオ生成には数分かかるため、APIは非同期モードを採用しています。プロンプトを送信するとタスクIDが返され、処理完了後にビデオを取得します。 OpenRouterはまた、マルチモーダルワークフローのデモアプリをオープンソースで公開しており、LLMが詳細なプロンプトを生成し、画像モデルがキャラクターを生成し、ビデオモデルがシーンを生成する一連のプロセスを示しています。これは、ビデオ生成を統一ルーティングに接続したことで得られる最も直接的な価値です。開発者は同じAPI内でテキスト・画像・ビデオモデルを組み合わせることができ、各社のSDKを個別に接続する必要がなくなります。 (出典:BlockBeats)
OpenRouter、Video Generation APIをリリースし、Sora 2、Veo 3.1、Seedanceを統合
KuCoinFlash共有






AIモデル集約分野の主要プレイヤーであるOpenRouterは、4月16日(UTC+8)にビデオ生成APIをリリースすると発表し、AI+暗号通貨ニュースに重要なアップデートをもたらしました。このAPIはテキストからビデオへの生成と画像からビデオへの生成をサポートし、Seedance 2.0/1.5、Veo 3.1、Wan 2.7/2.6、Sora 2 Proを統合しています。プラットフォームは統一されたスキーマを使用してアクセスを簡素化し、入力に基づいてリクエストを自動的にルーティングします。開発者は`/api/v1/videos/models`でモデルの機能を確認できます。ビデオ生成に時間がかかるため、処理は非同期です。OpenRouterはLLM、画像、ビデオモデルの統合用デモアプリもリリースし、オンチェーンニュースの更新に価値を加えました。
出典:原文を表示
免責事項: 本ページの情報はサードパーティからのものであり、必ずしもKuCoinの見解や意見を反映しているわけではありません。この内容は一般的な情報提供のみを目的として提供されており、いかなる種類の表明や保証もなく、金融または投資助言として解釈されるものでもありません。KuCoinは誤記や脱落、またはこの情報の使用に起因するいかなる結果に対しても責任を負いません。
デジタル資産への投資にはリスクが伴います。商品のリスクとリスク許容度をご自身の財務状況に基づいて慎重に評価してください。詳しくは利用規約およびリスク開示を参照してください。