Ketika semua orang memfokuskan perhatian pada pertarungan di lapisan model, sebuah pasukan yang menguasai standar nyata inferensi sumber terbuka, dengan rangkaian pelabur putaran benih paling mewah dari Silicon Valley, secara rasmi mengarahkan tujuannya kepada infrastruktur AI zaman baharu.
Penulis artikel, sumber: Machine Learning China
Pada 5 Mei, syarikat rintisan infrastruktur AI, RadixArk, mengumumkan penutupan pembiayaan benih sebanyak US$100 juta, dengan valuasi selepas pembiayaan sebanyak US$400 juta. Dari segi jumlah, valuasi, serta senarai pelabur, ini merupakan pelaburan awal paling besar dalam lintasan AI Infra pada tahun 2026 sehingga kini.

Putaran ini dipimpin oleh Accel, dengan Spark Capital sebagai co-leader. Pelabur institusi mencakup NVentures milik NVIDIA, AMD, MediaTek, Databricks, serta institusi terkemuka seperti Salience Capital, HOF Capital, Walden Catalyst, A&E Investment, LDVP, dan WTT Fubon Family. Dari GPU hingga CPU, dari chip tepi hingga platform data, hampir semua pemain kunci di peranti keras dan lapisan sistem telah hadir.

Di luar kalangan institusi terkemuka, beberapa pemimpin teknologi global dengan latar belakang Intel, Broadcom, OpenAI, xAI, PyTorch juga menyertai putaran pelaburan ini sebagai malaikat pelabur.
“CEO tiga raksasa peranti keras + pendiri makmal model terkemuka + pencipta PyTorch”, untuk mengumpulkan gabungan ini dalam satu sesi benih sahaja, sangat jarang berlaku dalam sejarah Infrastruktur AI. Pelabur yang mahir dalam bidang ini secara terus terang mengatakan: Ini adalah pertaruhan terhadap “piawaian fakta infrastruktur generasi seterusnya”.
Mesin penalaran terbaik di dunia, di tangan mereka
Cerita RadixArk mesti bermula dengan projek sumber terbuka bernama SGLang.

Sejak dilancarkan pada 2023, SGLang telah menjadi salah satu piawaian faktor untuk inferens model besar sumber terbuka dengan laju iterasi yang luar biasa dalam masa dua tahun, mengumpulkan lebih daripada 27K bintang di GitHub dan telah dideploy pada lebih daripada 400K GPU. Setiap hari, trilionan token trafik pengeluaran berjalan di atas SGLang, dengan pengguna termasuk Google, Microsoft, NVIDIA, Oracle, AMD, LinkedIn, xAI, dan Thinking Machines Lab.
Dalam dua tahun terakhir, arsitektur model mengalami perubahan besar seperti MoE, konteks panjang, model penalaran, dan integrasi multimodal. Setiap kali arsitektur direkayasa semula, SGLang mampu menyediakan kompatibilitas Day-0—mekanisme pertama di kalangan open-source yang menyokong pelancaran model secara langsung, dengan prestasi yang mendekati had fizikal mesin. Satu ulasan yang kerap disebut oleh pelabur ialah, kelajuan peningkatan SGLang dan gaya disiplin kejuruteraannya adalah yang terunggul di kalangan projek open-source.
Di sebalik disiplin lapisan bawah terdapat pasukan pengasas yang memiliki pengalaman mendalam dalam bidang sistem dan algoritma.

CEO Sheng Ying lulusan sarjana dari kelas ACM, Universitas Jiaotong Shanghai, dan meraih gelar doktor dari Universitas Stanford. Dia adalah pendiri LMSYS Org dan salah satu pendiri utama SGLang. Semasa studi doktoral, dia pernah menjadi peneliti tamu di Sky Lab, UC Berkeley, dan sebelumnya bekerja di Databricks dan xAI, di mana dia pernah menjabat sebagai pemimpin tim inferensi xAI. Karya Sheng Ying dalam bidang penjarangan perhatian dan pemanfaatan ulang cache KV mendapat perhatian besar dari industri; mekanisme RadixAttention pada tahap awal SGLang merupakan salah satu karyanya yang paling terkenal.
CTO Zhu Banghua (Banghua Zhu) menyelesaikan sarjana di Jabatan Kejuruteraan Elektronik, Universiti Tsinghua, dan memperoleh doktor falsafah dari UC Berkeley, di bawah bimbingan pakar pembelajaran mesin Michael I. Jordan dan Jiantao Jiao. Semasa pengajian doktor, beliau secara bersama mendirikan Nexusflow, yang kemudian dibeli oleh NVIDIA, dan beliau dilantik sebagai Principal Research Scientist di NVIDIA. Projek-projek yang beliau uruskan merangkumi pembinaan penuh sistem latihan peringkat industri, serta pengoptimuman sistem asas dalaman NVIDIA dan pengalaman panjang dalam latihan berskala besar.
Seorang ketua teknikal daripada pembuat peranti keras utama menilai, ini adalah pasangan pendiri paling bernilai dalam permulaan AI Infra pada 2026: satu pihak ialah pencipta permulaan yang menguasai piawaian inferens open-source, manakala pihak lain ialah pakar algoritma model besar dari lapisan penyelidikan teras pembuat GPU.
Memegang mesin inferensi SGLang yang mampu mengolah triliunan token setiap hari—ini sudah menjadi permulaan impian dalam perniagaan AI Infra. Tetapi, kartu yang dimiliki pasukan ini tidak hanya sekeping ini.
Hari-0 Mengendalikan DeepSeek V4 Reinforcement Learning
Selain enjin inferens, RadixArk juga mencapai terobosan di sisi latihan.
Pada November 2025, pasukan membuka sumber kerangka pembelajaran penguatan Miles, yang berfokus pada kestabilan dan kecekapan latihan RL berskala besar, dan kini telah digunakan oleh lebih daripada 20 pasukan untuk latihan pembelajaran penguatan model MoE.
Pada tahun 2025–2026, persaingan dalam kemampuan Reasoning, Penggunaan Alat, dan Agentic meningkat secara menyeluruh, dan setiap kemajuan di belakangnya memerlukan sistem yang mampu menangani RL terdistribusi berskala sangat besar. Para pengamat industri menyoroti satu titik kesakitan yang sering disebut tetapi belum pernah diselesaikan: yang paling menyakitkan bagi pasukan model besar hari ini jauh melampaui sebarang pengoptimuman titik tunggal. Gesekan sempadan di sepanjang rantai lengkap dari latihan ke RL hingga inferensis pasca-pelancaran, setiap bahagian secara individu hampir optimum, tetapi apabila digabungkan, semuanya mengalami penurunan kecekapan.
Kombinasi Miles dan SGLang sedang berusaha mengisi jurang kecekatan yang dihadapi oleh pasukan model besar dalam rantai lengkap "latihan-RL-penalaran".
Kemampuan model baru Day-0 merupakan cerminan langsung kekuatan kejuruteraan pasukan Infra.
Pada 25 April, DeepSeek-V4 yang mempunyai arsitektur kompleks dilancarkan. Pada hari yang sama, SGLang dan Miles telah berjaya menyokong inferensi DeepSeek-V4 dan latihan RL secara serentak. Ini adalah berkat pengoptimuman peringkat sistem asas pasukan, termasuk ShadowRadix prefix cache yang direka untuk perhatian hibrid, Flash Compressor yang melakukan pemampatan dalam satu cip, serta Lightning TopK yang mengurangkan latensi Top-K kepada 15 mikro saat, serta menghubungkan saluran RL penuh dari inferensi FP8 ke latihan BF16.
Dijanjikan oleh konsensus penuh stack:
Raksasa-raksasa masuk secara bersamaan, apa yang mereka khawatirkan?
NVIDIA, AMD, MediaTek, Broadcom, Intel—perusahaan-perusahaan paling kritikal di lapisan peranti keras yang muncul bersamaan dalam putaran benih, hampir tidak mungkin dibayangkan dalam industri ini. Sebenarnya, pengilang peranti keras lebih memahami daripada siapa pun bahawa kekuatan pengiraan semasa masih mahal dan langka, dan hanya menambah peranti keras tidak lagi berterusan. Sistem inferens terbuka yang benar-benar melepaskan peranti keras dan mampu memaksimumkan prestasi cip di atas platform heterogen adalah keperluan paling mendesak yang mereka perlukan.
Kehadiran Databricks, pencipta PyTorch, dan tokoh utama OpenAI / Thinking Machines / xAI secara serentak menandakan harapan kuat terhadap infrastruktur "terintegrasi pelatihan-inferensi" pada lapisan model dan sistem. Setiap nama dalam susunan malaikat ini bermakna sudut pandang bertaruh yang sangat tepat:
- Chen Liwu, CEO Intel, tokoh legenda yang telah berkecimpung dalam industri semikonduktor selama beberapa dekad.
- John Schulman ialah mantan pengetua bersama OpenAI, pengetua bersama Thinking Machines Lab, dan salah seorang perintis pembelajaran penguatan.
- Soumith Chintala — pencipta bersama PyTorch, penjaga kerangka pembelajaran mendalam global.
- Igor Babuschkin, mantan co-founder xAI, telah membina sendiri sistem latihan dan platform peranti paling kompleks di industri.
- Lilian Weng, salah seorang penubuh Thinking Machines Lab, memiliki wawasan terdepan mengenai pelaksanaan industri sistem AI.
Ketika orang-orang yang mampu menyokong pembiayaan sendiri di mana-mana saja memilih untuk muncul bersama di satu cap table yang sama, itulah tanda pertaruhan masa depan yang penuh semangat.
Infrastruktur untuk semua: Memastikan hak membina AI tidak lagi dikuasai oleh segelintir orang
Visi RadixArk, boleh diringkaskan dalam satu ayat: menjadikan infrastruktur AI sebagai barangan awam yang sepopular dan seboleh dipercayai seperti elektrik, tanpa dikuasai oleh sesiapa pun. Ini kedengaran seperti satu deklarasi idealis, tetapi dari segi pelaksanaan sebenar, mereka sedang mengubah pernyataan ini menjadi kenyataan:
- Akademik
Tiga tahun lalu, seorang pelajar doktor yang bekerja dalam pengoptimuman inferens LLM biasanya hanya mempunyai dua pilihan: satu ialah API OpenAI, yang dikenakan caj berdasarkan token dan tidak membolehkan melihat sebarang struktur dalaman; yang lain ialah kod sumber terbuka lama, di mana README menyatakan “berfungsi pada satu GPU”, jauh berbeza daripada skenario distribusi sebenar yang diperlukan dalam kertas kerja, dengan jarak kejuruteraan bertahun-tahun.
SGLang telah memecahkan pilihan dua arah ini—melalputan harian peringkat industri, kod sepenuhnya terbuka, kumpulan penyelidikan sistem dari Stanford, Berkeley, CMU, dan UW secara lalai menjadikannya sebagai baseline. Bagi penyelidik agen, cache awalan RadixAttention mengatur awalan bersama dalam struktur pokok, di mana KV yang sama hanya dikira sekali, membolehkan eksperimen yang sebelumnya memakan masa dua hari kini selesai dalam separuh hari sahaja, dan merujuk SGLang dalam kertas kerja tempatan hampir menjadi tindakan lalai.
- Syarikat permulaan
Sekumpulan jurutera yang meninggalkan syarikat besar, membawa pemahaman mendalam tentang satu skenario tepat untuk memulakan perniagaan. Mereka tidak mempunyai bajet pengiraan sejuta dolar, tidak mempunyai pasukan Infra khas, hanya mempunyai intuisi yang kuat terhadap produk.
Dahulu, membina saluran inferensis peringkat pengeluaran dan mengekalkan beban kejuruteraan untuk kompatibiliti antara peranti sering melampaui had kemampuan syarikat peringkat benih, dengan banyak masa terbuang dalam mengulangi pembuatan roda yang sama. Kini, mereka boleh terus memulakan perkhidmatan inferensis dengan prestasi hampir terkini di atas SGLang, serta melatih model khusus bidang menggunakan Miles—infrastruktur bukan lagi halangan, dan masa serta wang yang dijimatkan boleh sepenuhnya dialihkan kepada perkara yang ingin mereka cipta.
- Raksasa teknologi
Mengapa raksasa-raksasa seperti Google, Microsoft, dan NVIDIA, yang memiliki infrastruktur dalaman terkuat di dunia, juga muncul dalam senarai pengguna SGLang? Jawapannya tersembunyi dalam struktur pelabur kali ini—lima syarikat peranti keras utama iaitu NVIDIA, AMD, MediaTek, Broadcom, dan Intel sama-sama masuk. Mereka lebih memahami daripada siapa pun bahawa sistem inferens terbuka yang bebas peranti dan tidak terperangkap oleh pesaing mana pun bermakna apa kepada keseluruhan ekosistem. Menggunakan sistem terbuka yang diselenggarakan bersama komuniti dan disokong oleh pelbagai syarikat peranti keras, pada dasarnya merupakan strategi infrastruktur pada tahap yang lebih tinggi.
Pernyataan rasmi RadixArk tidak bersifat emosional, tetapi cukup tajam:
AI generasi seterusnya tidak seharusnya dibatasi oleh akses kepada infrastruktur peribadi. Lebih banyak pasukan sepatutnya mampu memiliki model mereka sendiri, sistem mereka sendiri, dan masa depan mereka sendiri.
Pembiayaan benih sebanyak 100 juta dolar AS ini bertujuan menjadikan pernyataan ini kenyataan teknikal: menjadikan SGLang sebagai piawaian pengeluaran Day-0 untuk sebarang model baru; menjadikan Miles sebagai kerangka kerja peringkat infrastruktur untuk latihan berskala besar dan RL; kemudian, membina platform pengurusan yang tidak mengunci model atau memperbudak pelanggan, tetapi menyediakan kemampuan infrastruktur tertinggi di atas teras sumber terbuka.
Visi RadixArk bukanlah untuk menggantikan siapa pun. Tetapi untuk memastikan bahawa sebuah laboratorium akademik, sebuah studio tiga orang, sebuah syarikat rintisan yang baru mendapat pendanaan awal, dan raksasa bernilai trilion dolar—semuanya bermula dari garis permulaan infrastruktur yang sama.
Jika Anthropic pada 2023, Mistral pada 2024, dan Thinking Machines Lab pada 2025 masing-masing mewakili taruhan strategis pada lapisan model AI, maka RadixArk pada 2026 membuat taruhan yang lebih mendasar dan lebih panjang: memastikan hak untuk membangun AI mutakhir benar-benar kembali ke tangan cukup banyak orang.
Selepas pendanaan selesai, pasukan telah melancarkan inisiatif balas budi kepada komuniti sumber terbuka: dengan mendaftar di platform dan memuat ulang tweet, anda akan mendapat poin penggunaan percuma apabila platform RadixArk secara rasmi dilancarkan. Bagi pasukan yang tumbuh dari komuniti sumber terbuka, ini adalah cara untuk mengucapkan terima kasih dengan kekuatan pengiraan sebenar kepada mereka yang telah menyokong SGLang sehingga hari ini.

- Pautan: platform.radixark.com
