Повідомлення ChainThink: 10 квітня Alibaba офіційно підтвердила, що модель генерації відео HappyHorse-1.0 є її власною розробкою. Ця модель була створена командою з лабораторії майбутнього життя групи Taotian, яка після останньої структурної перебудови Alibaba була включена до «Відділу інновацій штучного інтелекту» під новоствореним підрозділом Alibaba Token Hub (ATH).
У анонімному голосуванні на сторонній платформі оцінки Artificial Analysis, HappyHorse-1.0 значно перевершив Seedance 2.0 від ByteDance та Kling 3.0 від Kuaishou у завданнях чистого генерування відео, а у завданнях синхронного генерування звуку та зображення показав результат, подібний до Seedance 2.0.
За інформацією осіб, близьких до Alibaba, HappyHorse-1.0 — це лише один із багатомодальних моделей, розроблених власними силами командою; протягом найближчого часу Alibaba запустить ще один відмінний багатомодальний модуль. Наразі HappyHorse-1.0 не є відкритим кодом, що відповідає загальній стратегії Alibaba щодо переходу на закриті моделі — з кінця березня всі нові моделі, опубліковані Alibaba, залишилися закритими.
Це інтенсивне просування багатомодальних моделей відбувається на тлі вражаючого виступу Seedance 2.0 від ByteDance під час Свят Весни 2026 року, що здивувало всередині Alibaba, а також тому, що багатомодальне генерування значно збільшить споживання токенів, що вплине на частку ринку MaaS (модель як сервіс) — згідно з даними IDC, у першій половині 2025 року Volcano Engine зайняв 49,2% цього ринку, тоді як Alibaba Cloud — лише 27%.
