Mensagem da ChainThink, 10 de abril: o Alibaba confirmou oficialmente que o modelo de geração de vídeo HappyHorse-1.0 é um produto desenvolvido internamente. O modelo foi criado pela equipe do antigo Future Life Lab do Grupo TaoTian, que foi transferida para o novo "Departamento de Inovação em IA" sob o novo grupo de negócios Alibaba Token Hub (ATH), conforme a mais recente reestruturação da Alibaba.
Na votação anônima da plataforma de avaliação de terceiros Artificial Analysis, o HappyHorse-1.0 obteve votos significativamente superiores ao Seedance 2.0 do ByteDance e ao Kling 3.0 do Kuaishou em tarefas de geração de vídeo puro, enquanto apresentou desempenho equivalente ao Seedance 2.0 na geração integrada de áudio e vídeo.
Segundo pessoas próximas ao Alibaba, o HappyHorse-1.0 é apenas um dos modelos multimodais desenvolvidos internamente pela equipe, e o Alibaba lançará em breve outro modelo multimodal diferente. Atualmente, o HappyHorse-1.0 não está de código aberto, o que está alinhado com a estratégia geral do Alibaba de adotar modelos fechados — desde o final de março, todos os novos modelos lançados pelo Alibaba não foram disponibilizados como código aberto.
O impulso intensivo deste modelo multimodal ocorre no contexto do desempenho surpreendente do Seedance 2.0 da ByteDance durante o Ano Novo Chinês de 2026, que causou surpresa dentro da Alibaba. Além disso, a geração multimodal aumentará significativamente o consumo de tokens, impactando a participação de mercado do MaaS (Modelo como Serviço) — segundo dados da IDC, no primeiro semestre de 2025, o Volcano Engine já detinha 49,2% desse mercado, enquanto o Alibaba Cloud detinha apenas 27%.
