Kapag ang lahat ay nakatutok sa pagbabanta sa model layer, isang koponan na may kontrol sa open-source inference standard, kasama ang pinakamalaking grupo ng seed-round investors mula sa Silicon Valley, ay opisyal na tumutok sa bagong panahon ng AI infrastructure.
May-akda ng artikulo, pinagkukunan: Machine Heart
Noong Mayo 5, inanunsyo ng RadixArk, isang startup sa AI infrastructure, ang pagkumpleto ng isang seed funding na $100 milyon, na may post-money valuation na $400 milyon. Anuman ang halaga, valuation, o komposisyon ng mga investor, ito ay ang pinakamalaking early bet sa AI Infra sector sa 2026 hanggang sa kasalukuyan.

Ang pagsisikap na ito ay pinamumunuan ng Accel, kasama ang Spark Capital bilang co-lead. Ang mga institutional investor ay kumakalat sa mga pangunahing institusyon tulad ng NVentures ng NVIDIA, AMD, MediaTek, Databricks, pati na rin ang Salience Capital, HOF Capital, Walden Catalyst, A&E Investment, LDVP, at WTT Fubon Family. Mula sa GPU hanggang CPU, mula sa edge chips hanggang data platforms, ang mga pangunahing player sa core hardware at system layer ay halos lahat ay nasa lugar na ito.

Sa labas ng mga pangunahing institusyonal na grupo, maraming mga global na teknolohikal na lider mula sa Intel, Broadcom, OpenAI, xAI, PyTorch at iba pa ay nakikilahok bilang angel investors sa pagsisikap na ito.
Ang pagsasama-sama ng mga CEO ng tatlong pangunahing hardware company, ang tagapagtatag ng isang top-tier model lab, at ang tagapagtatag ng PyTorch sa isang seed round ay lubos na makabago sa kasaysayan ng AI Infra. Sinasabi ng mga investor na kilala sa larangan na ito: Ito ay isang pagtaya sa “pambansang istandard ng susunod na henerasyon ng infrastraktura.”
Ang pinakamahusay na inference engine sa buong mundo, sa kanilang mga kamay
Ang kuwento ng RadixArk ay dapat magsimula sa isang open-source na proyekto na tinatawag na SGLang.

Noong ipinakilala noong 2023, naging isa sa mga pambansang pamantayan sa open-source na inference ng malalaking modelo ang SGLang sa loob ng dalawang taon sa pamamagitan ng hindi kapani-paniwala bilis ng pagpapabuti, na nagkolekta ng higit sa 27K+ stars sa GitHub at ipinapalabas sa higit sa 400K+ GPU. Milyon-milyon na token ng production traffic ang tumatakbo sa SGLang araw-araw, at ang mga user nito ay kasama ang Google, Microsoft, NVIDIA, Oracle, AMD, LinkedIn, xAI, at Thinking Machines Lab.
Sa nakalipas na dalawang taon, ang mga arkitektura ng modelo ay nagsagawa ng malalaking pagbabago tulad ng MoE, mahabang konteksto, mga modelo ng pag-iisip, at pagkakaisa ng maraming modalidad. Sa bawat pagpapalit ng arkitektura, sinuportahan ng SGLang ang Day-0 compatibility—ang unang pagpapakilala ng open-source model na may suporta mula sa araw ng paglabas, na may performance na malapit sa limitasyon ng pisikal na machine. Isang komento na paulit-ulit na binanggit ng mga investor ay ang pagiging pinakamataas sa open-source projects ang bilis ng pag-update at disiplina sa paggawa ng SGLang.
Sa likod ng pagsunod sa pondo ay isang founding team na may malalim na karanasan sa sistema at algoritmo.

Si CEO Ying Sheng ay nagtapos ng bachelor’s degree mula sa ACM Class ng Shanghai Jiao Tong University at ng doktorado mula sa Stanford University. Siya ang tagapagsimula ng LMSYS Org at isa sa pangunahing tagapagtatag ng SGLang. Noong panahon ng kanyang doktorado, siya ay naging visiting scholar sa UC Berkeley Sky Lab at nagsilbi sa Databricks at xAI, kung saan siya ay naging puno ng inference team ng xAI. Ang kanyang mga gawa sa pagpapalakas ng atensyon, paggamit muli ng KV cache, at iba pang direksyon ay nakakatanggap ng malaking pansin sa industriya, at ang RadixAttention mechanism sa maagang SGLang ay isa sa kanyang pinakakilala.
Ang CTO, Zhu Banghua, ay nagtapos ng bachelor's degree sa Department of Electronic Engineering ng Tsinghua University, at ng doctorate sa UC Berkeley, kung saan siya ay naging alumno ng mga eksperto sa machine learning na si Michael I. Jordan at Jiantao Jiao. Noong panahon ng kanyang doktorado, co-founded niya ang Nexusflow, na pagkatapos ay kinuha ng NVIDIA, kung saan siya ay naging Principal Research Scientist ng NVIDIA. Sa mga proyektong kanyang pinamahalaan, kasama ang buong pagbuo ng industriyal na training system, pati na rin ang malalim na pag-optimize ng internal system at matagalang karanasan sa malawakang pag-train ng NVIDIA.
Ipinapakita ng teknikal na lider ng isang pangunahing hardware manufacturer na ito ang pinakamalaking halaga sa pagpapagsimula ng AI Infra noong 2026: isang research-based entrepreneur na may kontrol sa open-source inference na pambansang pamantayan, at isang eksperto sa algorithm ng malalaking modelo mula sa pinakamahalagang pananaliksik na yunit ng GPU manufacturer.
Mayroon ka na ng SGLang, isang inference engine na nakakapagtrato ng trilyon-trilyon na token araw-araw—ito na mismo ay isang dream start para sa AI Infra startup. At hindi lang ito ang kanilang tatak.
Day-0: Pagpapalakas ng DeepSeek V4 gamit ang Reinforcement Learning
Bukod sa inference engine, may pag-unlad din ang RadixArk sa training side.
Noong Nobyembre 2025, inilabas ng koponan ang open-source na framework na Miles para sa reinforcement learning, na nakatuon sa katatagan at efisensiya ng malalaking RL training, at ngayon ay ginagamit na ng higit sa 20 koponan para sa reinforcement learning training ng MoE models.
Sa taon 2025–2026, ang kompetisyon sa Reasoning, Tool Use, at Agentic capabilities ay lubos na umuunlad, at sa bawat hakbang na pag-unlad, kailangan ng isang sistema na makakatugon sa napakalaking distributed RL. Tinukoy ng mga obserbador sa industriya ang isang pangmatagalang problema na paulit-ulit na binabanggit ngunit hindi pa nalulutas: ang pinakamalaking hirap ng mga team ng malalaking modelo ay higit pa sa anumang isang puntong optimisasyon. Ang friction sa hangganan sa buong proseso mula sa pagtatrayn hanggang sa RL at pagkatapos ay pagpapatakbo ng inference, kahit na bawat bahagi ay malapit sa optimal nang hiwalay, ay nagiging sanhi ng maraming pagbaba sa efficiency kapag pinagsama.
Ang kombinasyon ng Miles at SGLang ay nagtatangkang punan ang pagkakabagabag sa efisensiya sa buong chain ng «pagsasanay-RL-pagpapatakbo» na kinakaharap ng mga koponan ng malalaking modelo.
Ang kakayahan ng bagong modelo sa Day-0 ay direktang pagpapakita ng teknikal na kakayahan ng team na Infra.
Noong Abril 25, ipinakilala ang DeepSeek-V4 na may komplikadong arkitektura. Sa araw na iyon, sinuportahan na ng SGLang at Miles ang pagpapatakbo at RL training ng DeepSeek-V4 nang sabay-sabay. Ito ay posible dahil sa mga system-level optimization ng team, kabilang ang ShadowRadix prefix cache na disenyo para sa hybrid attention, ang Flash Compressor na kumpleto ang compression sa isang chip, at ang Lightning TopK na binawasan ang Top-K latency sa 15 microsecond, pati na rin ang pagbuo ng buong RL pipeline mula sa FP8 inference hanggang BF16 training.
Full-stack consensus endorsement:
Ang mga malalaking player ay nagkakaisa sa pagpasok—ano ba ang kanilang kinakabahan?
NVIDIA, AMD, MediaTek, Broadcom, Intel—ang mga kritikal na kumpanya sa hardware layer, ang pagkakaroon nila sa seed round ay halos imposible sa industriya. Sa katotohanan, mas malinaw sa mga manufacturer ng hardware na ang computing power ay patuloy na mahal at limitado, at ang pagpapalawak ng hardware ay hindi na maaaring magpatuloy. Ang pinakamalaking pangangailangan nila ay isang open-source inference system na tunay na nakakadisconnect sa hardware at nakakapag-extract ng maximum performance sa mga heterogenous platform.
Kung ang mga tagapagtatag ng Databricks, PyTorch, at mga pangunahing tauhan mula sa OpenAI / Thinking Machines / xAI ay sumali nang sabay-sabay, ito ay nagpapakita ng malakas na inaasahan sa modelo at sistema层 para sa “infrastructure na nag-uunlad at nagpapatakbo nang isang beses.” Ang bawat pangalan sa angel team ay nangangahulugan ng isang napakatumpak na pananaw sa pagtaya:
- Chen Liwu, CEO ng Intel, isang eksperto sa industriya ng semiconductor na may mahigit sa dekada ng karanasan.
- Si John Schulman ay dating co-founder ng OpenAI, co-founder ng Thinking Machines Lab, at isa sa mga tagapagtatag ng reinforcement learning.
- Soumith Chintala—co-founder ng PyTorch, ang gatekeeper ng mga global na framework ng deep learning.
- Igor Babuschkin, dating na co-founder ng xAI, ay direktang nagtayo ng pinakamalalim na training system at hardware platform sa industriya.
- Lilian Weng, co-founder ng Thinking Machines Lab, ay may pinakamalapit na pag-unawa sa pagpapatupad ng AI systems sa industriya.
Kapag ang mga ito, na kaya mag-isa magbigay ng isang round ng funding sa anumang okasyon, ay pumili na makilahok nang magkakasama sa iisang cap table, iyon ang malakas na pagtaya sa kinabukasan.
Infrastraktura para sa lahat: Huwag nang i-monopolyo ng kaunting tao ang karapatan na bumuo ng AI
Ang pangarap ng RadixArk, maaaring maipaliwanag sa isang pangungusap: gawing pangkabuhayan, mapagkakatiwalaan, at hindi mapapaligiran ng sinuman ang AI infrastructure, tulad ng kuryente. Maaaring mukhang isang idealistang pahayag, ngunit sa praktikal na pagpapatupad, sila ay nagpapatotoo sa pangungusap na ito:
- Akademya
Noong tatlong taon ang nakalipas, ang isang doktorante na nagtatrabaho sa pag-optimize ng LLM inference ay mayroon lamang dalawang pagpipilian: ang isa ay ang API ng OpenAI, na binabayaran batay sa token at hindi nagbibigay ng anumang paningin sa loob na istruktura; at ang isa ay ang lumang open-source code, kung saan ang README ay nagsasabi na “works on a single GPU,” na malayo pa sa tunay na distributed scenario na inilarawan sa papel, na may libo-libong taon ng inhinyeriya.
Sinira ng SGLang ang dalawang pagpipilian—industrial-strength daily throughput, buong code ay open source, at ang mga system research group ng Stanford, Berkeley, CMU, at UW ay itinuturing ito bilang baseline. Para sa mga researcher na nagtatrabaho sa agent, ang RadixAttention na prefix cache ay nag-organisa ng mga shared prefix bilang tree structure, kung saan ang mga parehong KV ay binabawas lang isa beses, kaya ang mga eksperimento na dati ay nangangailangan ng dalawang araw ay maaari na ngayong matapos sa kalahating araw lamang, at ang pagbanggit sa SGLang sa lokal na pagtutok ng papel ay naging default na gawi.
- Startup
Isang grupo ng mga inhinyero na umalis sa malalaking kumpanya, na dala ang malalim na pag-unawa sa isang partikular na niche na escenario, at nagtatag ng kanilang sariling negosyo. Wala silang budget ng milyon-milyong dolyar para sa computing power, wala silang espesyal na Infra team, ngunit mayroon silang malakas na intuisyon sa kanilang produkto.
Noong nakaraan, ang pagbuo ng production-grade inference pipeline at ang pagpapanatili ng engineering overhead para sa cross-hardware compatibility ay madalas na lumampas sa kakayahan ng mga kumpanya sa seed round, na nagdudulot ng malaking pagkawala ng oras sa pagpapalikod ng mga bagay na nangyayari na. Ngayon, maaari nilang direktang i-deploy ang mga inference service na malapit sa pinakamataas na performance sa ibabaw ng SGLang, at gamitin ang Miles para i-train ang kanilang sariling domain-specific models—hindi na ang infrastraktura ang bottleneck; ang natitirang oras at pera ay maaaring buong-buo nang ilapat sa mga bagay na talagang nais nilang gawin.
- Tech giant
Bakit nakikita ang Google, Microsoft, at NVIDIA—mga puno na may pinakamalakas na loob na Infra sa buong mundo—sa listahan ng mga user ng SGLang? Ang sagot ay nakatago sa istruktura ng mga investor sa current round—ang NVIDIA, AMD, MediaTek, Broadcom, at Intel, limang pangunahing tagapagbigay ng hardware, ay parehong sumali. Mas malinaw sa kanila kaysa sinoman ang kahalagahan ng isang hardware-independent, open-source na sistema ng inference na hindi nakalulok sa anumang kalaban. Ang paggamit ng isang open-source na sistema na pinapanatili ng komunidad at suportahan ng maraming tagapagbigay ng hardware, ay isang mas mataas na antas ng infrastruktura na estratehiya.
Ang opisyal na pahayag ng RadixArk ay walang emosyon, ngunit sapat na matapang:
Hindi dapat limitado ang susunod na henerasyon ng AI sa pagkakaroon ng access sa pribadong imprastruktura. Dapat makapagkaroon ng sariling modelo, sariling sistema, at sariling kinabukasan ang higit pang mga tim.
Ang $100 milyong seed funding na ito ay upang gawing realidad ang pahayag na ito: gawing production standard sa Day-0 ang SGLang para sa anumang bagong model; gawing infrastructure-level framework ang Miles para sa malawakang pag-train at RL; at pagkatapos, bumuo ng hosted platform na hindi nakakabukod sa model, hindi nagpapakulong sa customer, ngunit nag-aalok ng mga kakayahan sa infrastructure na pinakamataas.
Ang pangarap ng RadixArk ay hindi nagmula sa pagpapalit sa sinoman. Kundi sa pagpapahintulot sa isang akademikong laboratorio, isang tim na tatlo, isang startup na kumukuha ng seed funding, at isang korporasyon na may halaga ng trilyon—na magsimula sa parehong basehan ng infrastraktura.
Kung ang Anthropic noong 2023, ang Mistral noong 2024, at ang Thinking Machines Lab noong 2025 ay bawat isa ay nagbigay ng isang direksyonal na taya sa antas ng AI model, ang RadixArk noong 2026 ay tumaya sa isang mas pangunahin at mas mahabang bagay: pagbalik ng karapatan na bumuo ng mga advanced na AI sa sapat na bilang ng mga tao.
Pagkatapos matapos ang pagpapautang, isinimulan ng team ang isang pagpapahalaga sa open-source community: ang pagkakarehistro sa platform at ang pagpapakalat sa Twitter ay magbibigay sa iyo ng libreng credit pagkatapos mag-launch ang opisyal na platform ng RadixArk. Para sa team na nagmula sa open-source community, ito ay isang paraan ng pagpapahalaga sa tulong ng tunay na computing power sa mga taong sumuporta sa SGLang hanggang sa araw na ito.

- Link: platform.radixark.com
