Message de ChainThink : le 10 avril, Alibaba a officiellement confirmé que le modèle de génération vidéo HappyHorse-1.0 est un produit développé en interne. Ce modèle provient de l'équipe de l'ancien Laboratoire de la Vie Future du groupe Taotian, qui a été intégrée au sein du nouveau « Département d'innovation IA » sous le nouveau groupe Alibaba Token Hub (ATH) dans le cadre du recentrage organisationnel récent d'Alibaba.
Dans un vote anonyme sur la plateforme d'évaluation tierce Artificial Analysis, HappyHorse-1.0 a obtenu un nombre de votes significativement supérieur à Seedance 2.0 de ByteDance et à Kling 3.0 de Kuaishou pour les tâches de génération vidéo pure, et a affiché des performances équivalentes à Seedance 2.0 pour la génération audio-visuelle intégrée.
Selon des personnes proches d'Alibaba, HappyHorse-1.0 n'est qu'un des modèles multimodaux développés en interne par l'équipe ; Alibaba lancera prochainement un autre modèle multimodal différent. Pour l'instant, HappyHorse-1.0 n'est pas open source, ce qui s'aligne sur la stratégie globale récente d'Alibaba en faveur de modèles fermés — depuis la fin mars, tous les nouveaux modèles publiés par Alibaba n'ont pas été open source.
Cette poussée intensive des modèles multimodaux s'inscrit dans le contexte de la performance surprenante de Seedance 2.0 de ByteDance pendant la fête du Printemps 2026, qui a surpris Alibaba en interne. De plus, la génération multimodale augmentera considérablement la consommation de tokens, impactant ainsi la part de marché du MaaS (Model as a Service) : selon les données d'IDC, au premier semestre 2025, Volcano Engine détenait 49,2 % de ce marché, contre seulement 27 % pour Alibaba Cloud.
