Коли всі звернули увагу на битву за шари моделей, команда, що володіє стандартом відкритого коду для висновків, з найбільш престижними інвесторами серії seed з Сіліконової долини, офіційно спрямувала свій фокус на нову інфраструктуру ШІ.
Автор статті, джерело: Machine Learning News
5 травня RadixArk — стартап у сфері інфраструктури ШІ — оголосив про завершення сід-фінансування на 100 мільйонів доларів США з оцінкою після інвестування в 400 мільйонів доларів США. За розміром інвестицій, оцінкою та складом інвесторів це найбільший ранній інвестиційний вклад у секторі AI Infra у 2026 році.

Цей раунд очолює Accel, а Spark Capital є спів-лидером. Інвесторами є провідні інституції, включаючи NVentures від NVIDIA, AMD, MediaTek, Databricks, а також Salience Capital, HOF Capital, Walden Catalyst, A&E Investment, LDVP та WTT Fubon Family. Майже всі ключові гравці в сфері основного обладнання та системного рівня — від GPU до CPU, від крайових чіпів до платформ для даних — вже приєдналися.

За межами провідних інституційних інвесторів, кілька глобальних технологічних лідерів із такими фонами, як Intel, Broadcom, OpenAI, xAI, PyTorch, також взяли участь у цьому раунді як ангельські інвестори.
«Генеральні директори трьох великих виробників обладнання + засновник лабораторії з найкращими моделями + творець PyTorch» — зібрати такий склад у одному серії seed-інвестування дуже рідкісно в історії AI Infra. Інвестори, що добре знайомі з цією галуззю, прямо кажуть: це ставка на «фактичний стандарт інфраструктури наступного покоління».
Найкращий у світі рушій виведення у їхніх руках
Історія RadixArk має починатися з відкритого проекту під назвою SGLang.

З моменту свого створення у 2023 році SGLang за два роки з невіроятною швидкістю ітерацій став одним із стандартів у відкритому коді для висновку великих моделей, отримавши понад 27K зірочок на GitHub і був розгорнутий на понад 400K GPU. Щодня на SGLang працює кілька трильйонів токенів виробничого трафіку, а його користувачами є Google, Microsoft, NVIDIA, Oracle, AMD, LinkedIn, xAI, Thinking Machines Lab.
За останні два роки архітектура моделей пройшла через серію суттєвих змін: MoE, довгі контексти, моделі міркувань, мультимодальне об’єднання. Кожного разу SGLang забезпечував сумісність з Day-0 — інноваційний механізм підтримки відкритих моделей з моменту їхнього запуску, продуктивність якого наближається до фізичних меж апаратного забезпечення. Інвестори неодноразово зазначали, що швидкість ітерацій SGLang у поєднанні з інженерною дисципліною є безперечним лідером серед відкритих проектів.
За основною дисципліною стоїть засновницька команда з глибоким досвідом у сфері систем та алгоритмів.

Генеральний директор Ін Шен отримала ступінь бакалавра в ACM-класі Шанхайського джияотонського університету та докторський ступінь у Стенфордському університеті. Вона є засновницею LMSYS Org та одним із головних засновників SGLang. Під час навчання у аспірантурі вона була запрошеним дослідником у Sky Lab UC Berkeley, працювала в Databricks та xAI, де обіймала посаду керівника команди висновування xAI. Роботи Ін Шен у галузі розрідження уваги та повторного використання KV-кешу отримали широке визнання в галузі; один із її найвідоміших досягнень — механізм RadixAttention у ранніх версіях SGLang.
CTO Чжу Баньхуа (Banghua Zhu) отримав ступінь бакалавра в галузі електронної інженерії Цінхуа, а докторську ступінь — в UC Berkeley під керівництвом лідерів у галузі машинного навчання Майкла І. Джордана та Цзяньтао Джяо. Під час навчання в аспірантурі він спільно заснував Nexusflow, яку пізніше було придбано NVIDIA, після чого він став Principal Research Scientist у NVIDIA. Серед проектів, якими він керував, — повна побудова промислових систем для навчання, а також довгостроковий досвід оптимізації базових систем NVIDIA та масштабного навчання.
Технічний керівник одного з ключових виробників обладнання оцінив, що це найбільш цінний склад засновників у стартапах AI Infra 2026 року: з одного боку — дослідний підприємець, що контролює стандарт відкритого виведення, а з іншого — експерт з алгоритмів великих моделей з найважливішого дослідницького рівня виробника GPU.
У руках — інференсний рушій SGLang, який обробляє трильйони токенів щодня — це вже мрія про стартап у сфері AI Infra. Але це ще не всі карти в руках цієї команди.
День-0: Підкорення DeepSeek V4 з підсиленням навчанням
Крім інференс-движка, RadixArk досягла прориву й на стороні навчання.
У листопаді 2025 року команда відкрила код фреймворку для підсиленого навчання Miles, спрямованого на стабільність та ефективність масштабного навчання RL, який наразі використовують понад 20 команд для навчання MoE-моделей за допомогою підсиленого навчання.
У 2025–2026 роках конкуренція в галузі Reasoning, Tool Use та Agentic здатностей різко зросте, а кожен крок вперед вимагатиме системи, здатної витримувати надвеликі розподілені RL. Спостерігачі галузі зазначили повторювану, але довгий час нерозв’язану проблему: найбільші болі сьогоднішніх команд великих моделей значно перевищують будь-яку окрему точкову оптимізацію. Межове тертя на повному ланцюжку — від навчання до RL і до виведення на інференс — кожен етап окремо майже оптимальний, але разом вони постійно втрачають ефективність.
Комбінація Miles та SGLang намагається заповнити розрив у ефективності, з яким стикаються поточні команди великих моделей на повному ланцюжку «навчання — RL — висновок».
Здатність нової моделі Day-0 — це наочне проявлення інженерної майстерності команди Infra.
25 квітня було запущено складну архітектуру DeepSeek-V4. У той самий день SGLang і Miles забезпечили одночасну підтримку висновку та RL-навчання для DeepSeek-V4. Це стало можливим завдяки системним оптимізаціям на нижньому рівні, включаючи ShadowRadix-кеш префіксів, розроблений для змішаної уваги, Flash Compressor, що виконує стиснення на одному чипі, та Lightning TopK, який зменшує затримку Top-K до 15 мікросекунд, а також повну RL-лінійку від FP8-висновку до BF16-навчання.
Підтримка повного стеку консенсусу:
Великі гравці масово входять — у чому їхня тривога?
NVIDIA, AMD, MediaTek, Broadcom, Intel — це ключові компанії на апаратному рівні, які одночасно беруть участь у сім’янному раунді, що в галузі майже немислимо. Насправді, виробники апаратного забезпечення краще за всіх розуміють, що обчислювальні потужності залишаються дорогими та обмеженими, і просто накопичення апаратного забезпечення більше не є тривалим рішенням. Найбільшою потребою для них є справжня відокремлена апаратна система з відкритим кодом, яка зможе максимально використати продуктивність чіпів на гетерогенних платформах.
Участь Databricks, засновників PyTorch, а також ключових фігур OpenAI / Thinking Machines / xAI свідчить про сильні очікування щодо інфраструктури «навчання-висновування в одному» на рівні моделей і систем. Кожне ім’я в ансамблі ангелів означає надзвичайно точну перспективу ставки:
- Чен Ліву, генеральний директор Intel, визнаний авторитет у напівпровідниковій галузі з десятилітнім досвідом.
- Джон Шульман — колишній співзасновник OpenAI, співзасновник Thinking Machines Lab, один із засновників підсилювального навчання.
- Соуміт Чінтала — співзасновник PyTorch, вартовий глобальних фреймворків глибокого навчання.
- Ігор Бабушкін, колишній співзасновник xAI, сам створив найскладніші у галузі системи навчання та апаратні платформи.
- Ліліан Венг, співзасновниця Thinking Machines Lab, має найбільш прямі уявлення про промислове застосування AI-систем.
Коли ці люди, які здатні самотужки привлечь фінансування в будь-яких умовах, вирішують з’явитися разом у одній cap table, це — відчайдушна ставка на майбутнє.
Інфраструктура для всіх: зробити будівництво ШІ недоступним для небагатьох
Візія RadixArk можна описати одним реченням: зробити інфраструктуру ШІ доступною, надійною та недоступною для монополізації будь-ким, як електроенергію. Це звучить як ідеалістична декларація, але на практиці вони перетворюють це речення на реальність:
- Академічне середовище
Три роки тому перед докторантом, який працював над оптимізацією висновків LLM, зазвичай було лише два варіанти: один — API OpenAI, яке оплачується за токени і не дозволяє бачити жодної внутрішньої структури; інший — застарілий відкритий код, у README якого написано «працює на одному GPU», що на роки відстоює від реального розподіленого сценарію, описаного у статті.
SGLang зламав цей вибір між двома варіантами — промислова пропускна здатність на день та повний відкритий код, системні дослідницькі групи Стенфорду, Берклі, CMU та UW використовують його як базовий стандарт. Для дослідників агентів RadixAttention з префіксним кешем організовує спільні префікси у вигляді дерева, обчислюючи однакові KV лише один раз, тому експерименти, які раніше тривали два дні, тепер завершуються за півдня, і посилання на SGLang у локальних висновках статей майже стали стандартом.
- Стартап
Група інженерів, які залишили великі компанії, із глибоким розумінням певної спеціалізованої сцени вийшли на власний стартап. У них не було мільйонів доларів на бюджет обчислювальних потужностей, не було окремої команди Infra — лише інтуїція щодо продукту.
Раніше створення виробничих інференс-конвеєрів та підтримка сумісності між різними апаратними платформами накладали надмірне інженерне навантаження, яке перевищувало можливості компаній на етапі сідл-фінансування, витрачаючи величезну кількість часу на повторне створення вже існуючих рішень. Зараз вони можуть безпосередньо побудувати інференс-сервіси з майже передовими показниками продуктивності на основі SGLang та навчати доменно-спеціалізовані моделі за допомогою Miles — інфраструктура більше не є обмеженням, а зекономлений час і кошти можна повністю спрямувати на розробку того, що вони справді хочуть створити.
- Технологічний гігант
Чому такі гіганти, як Google, Microsoft, NVIDIA, які мають найпотужніші внутрішні інфраструктури у світі, з’являються у списку користувачів SGLang? Відповідь прихована у структурі інвесторів циклу — п’ять ключових виробників обладнання: NVIDIA, AMD, MediaTek, Broadcom та Intel одночасно ввійшли до проекту. Вони краще за будь-кого іншого розуміють, що означає для всієї екосистеми відкрита система висновку, незалежна від апаратного забезпечення та не прив’язана до будь-якого конкурента. Використання відкритої системи, яку спільно підтримують спільнота та кілька виробників обладнання, — це вже стратегія інфраструктури вищого рівня.
Офіційне заявлення RadixArk не містить емоцій, але достатньо гостре:
«Наступне покоління ШІ не повинно обмежуватися доступом до приватної інфраструктури. Більше команд повинні мати можливість володіти власними моделями, власними системами, власним майбутнім.»
Цей посібний інвестиційний раунд на 100 мільйонів доларів має перетворити цю фразу на інженерну реальність: зробити SGLang стандартом виробництва Day-0 для будь-якої нової моделі; перетворити Miles на інфраструктурний фреймворк для масштабного навчання та RL; а потім, на основі відкритого ядра, створити хостинг-платформу, яка не прив’язує моделі, не залежить від клієнтів, але надає найвищі інфраструктурні можливості.
Візія RadixArk ніколи не полягала у заміні когось. Вона полягає у тому, щоб надати академічній лабораторії, невеликій команді з трьох осіб, стартапу, що лише отримав сідловий інвестування, та гіганту з капіталізацією в трильйони — однакову стартову лінію інфраструктури.
Якщо Anthropic у 2023 році, Mistral у 2024 році та Thinking Machines Lab у 2025 році кожен зробили стратегічну ставку на напрямок розвитку штучного інтелекту, то RadixArk у 2026 році робить ставку на щось більш фундаментальне та тривале: повернення права на створення передових моделей ШІ до достатньо великої кількості людей.
Після завершення фінансування команда запустила акцію на користь відкритого комunitи: участь у реєстрації на платформі та ретвіт у Твіттері дасть вам безкоштовні інтеграли для використання після офіційного запуску платформи RadixArk. Для команди, яка виросла з відкритого комuniti, це спосіб вдячності справжніми обчислювальними ресурсами тим, хто підтримував SGLang до сьогодні.

- Посилання: platform.radixark.com
