Mensaje de ChainThink, 10 de abril: Alibaba ha confirmado oficialmente que el modelo de generación de video HappyHorse-1.0 es un producto desarrollado internamente. Este modelo proviene del equipo del antiguo Laboratorio de Vida Futura del Grupo Tao Tian, que fue integrado en el nuevo "Departamento de Innovación en IA" dentro del nuevo grupo empresarial Alibaba Token Hub (ATH) tras el reciente reajuste estructural de Alibaba.
En la votación anónima de la plataforma externa de evaluaciones Artificial Analysis, HappyHorse-1.0 obtuvo una ventaja significativa sobre Seedance 2.0 de ByteDance y Kling 3.0 de Kuaishou en tareas de generación de video puro, y se desempeñó de manera equivalente a Seedance 2.0 en la generación integrada de audio y video.
Según personas cercanas a Alibaba, HappyHorse-1.0 es solo uno de los modelos multimodales desarrollados internamente por el equipo, y Alibaba lanzará próximamente otro modelo multimodal diferente. Actualmente, HappyHorse-1.0 no está disponible como código abierto, lo cual es coherente con la reciente estrategia general de Alibaba de optar por modelos cerrados: desde finales de marzo, todos los nuevos modelos lanzados por Alibaba no han sido abiertos.
El intenso impulso de este modelo multimodal se produce en el contexto del destacado desempeño de Seedance 2.0 de ByteDance durante el Año Nuevo Chino de 2026, lo cual sorprendió a Alibaba internamente. Además, la generación multimodal aumentará significativamente el consumo de tokens, afectando así la cuota de mercado del MaaS (Modelo como Servicio): según datos de IDC, en la primera mitad de 2025, VolcEngine ocupó el 49,2% de este mercado, mientras que Alibaba Cloud solo representó el 27%.
