すべての人がモデル層の戦いに注目する中、オープンソース推論の事実標準を握るチームが、シリコンバレーで最も豪華なシードラウンド投資家陣容を揃え、新たな時代のAIインフラに矛先を向けた。
記事執筆者、出典:機械の心
5月5日、AIインフラストラクチャーのスタートアップ企業RadixArkは、1億ドルのシードラウンドを完了し、投後評価額を4億ドルと発表しました。金額、評価額、投資家陣容のいずれを取っても、これは2026年におけるAI Infra分野でこれまでで最大の早期投資です。

本ラウンドはAccelがリードし、Spark Capitalが共同リードしました。機関投資家にはNVIDIA傘下のNVentures、AMD、MediaTek、Databricks、およびSalience Capital、HOF Capital、Walden Catalyst、A&E Investment、LDVP、WTT Fubon Familyなど一流機関が含まれています。GPUからCPU、エッジチップからデータプラットフォームまで、コアハードウェアとシステム層の主要プレイヤーがほぼすべて参加しています。

トップ機関投資家陣営の外でも、Intel、Broadcom、OpenAI、xAI、PyTorch などの背景を持つ世界的な技術リーダーたちが、アンジェル投資家として本ラウンドに参加しました。
「ハードウェア三大手CEO+トップモデルラボ創設者+PyTorch生みの親」が、シードラウンドで同時に集まるのは、AIインフラの歴史において極めて稀である。この分野に詳しい投資家は、これは「次世代インフラの事実上の標準」に賭けていると明言している。
世界最高の推論エンジンが、彼らの手にあります
RadixArkの物語は、SGLangというオープンソースプロジェクトから始まる。

2023年の登場以来、SGLangは驚異的な開発速度で、2年以内にオープンソースの大規模モデル推論の事実上の標準の一つとなり、GitHub上で27K以上のスターを獲得し、400K以上のGPUにデプロイされています。毎日数兆トークンの本番トラフィックがSGLang上で処理されており、そのユーザーにはGoogle、Microsoft、NVIDIA、Oracle、AMD、LinkedIn、xAI、Thinking Machines Labが含まれます。
過去2年で、モデルアーキテクチャはMoE、長コンテキスト、リーズニングモデル、マルチモーダル統合など、次々と大きな変化を遂げてきました。そのたびに、SGLangはDay-0互換性を実現——開発されたオープンソースモデルを即時サポートする独自のメカニズムを世界で初めて導入し、性能はハードウェアの物理的限界に迫っています。投資家たちが繰り返し評価するのは、SGLangのイテレーション速度とエンジニアリングの纪律が一体化したスタイルが、オープンソースプロジェクトの中でも圧倒的にトップレベルであるということです。
背後には、システムとアルゴリズムの分野で豊富な経験を積んだ創業チームがいます。

CEOの盛穎(Ying Sheng)は上海交通大学ACMクラスで学士号を取得し、スタンフォード大学で博士号を取得した。LMSYS Orgの発起人であり、SGLangの主要な創設者の一人でもある。博士課程中はUCバークレーのSky Labで訪問研究者として研究に従事し、その後DatabricksおよびxAIに勤務。xAIでは推論チームの責任者を務めた。盛穎は注意機構のスパース化やKVキャッシュの再利用などの分野で業界からの注目を集め、SGLangの初期におけるRadixAttentionメカニズムはその代表的な成果の一つである。
CTOの朱邦華(Banghua Zhu)は、清華大学電子工学系で学士号を取得し、UCバークレーでマシンラーニングの権威であるMichael I. JordanおよびJiantao Jiaoの下で博士号を取得しました。博士課程中、Nexusflowを共同設立し、後にNVIDIAに買収され、NVIDIAのPrincipal Research Scientistを務めました。彼が携わったプロジェクトには、産業級トレーニングシステムの全体構築から、NVIDIA内部の基盤システム最適化および大規模トレーニングにおける長期的な蓄積まで含まれています。
あるコアハードウェアメーカーの技術責任者は、これは2026年のAIインフラスタートアップにおいて最も価値のある創業者チームであると評価した。一方はオープンソース推論の事実上の標準を握る研究型起業家であり、他方はGPUメーカーの最核心の研究層から来た大規模モデルアルゴリズムの専門家である。
毎日数兆トークンを処理する推論エンジンSGLangを手にしている——これはAIインフラ起業にとって夢のような出発点である。そして、このチームが持つカードは、これだけではない。
Day-0 DeepSeek V4 強化学習を習得する
推論エンジンに加えて、RadixArkはトレーニング側でも大きな進展を遂げました。
2025年11月、チームは強化学習フレームワーク「Miles」をオープンソース化し、大規模RLトレーニングの安定性と効率に焦点を当てています。現在、20以上のチームがMilesをMoEモデルの強化学習トレーニングに使用しています。
2025~2026年には、Reasoning、Tool Use、Agentic能力の競争が全面的に高度化し、その一歩一歩の進歩には、超大規模分散RLに耐えうるシステムが必要となる。業界の観測者は、繰り返し指摘されながら長年解決されていない痛点を指摘している。今日の大規模モデルチームが最も苦悩しているのは、いかなる単一の最適化よりもはるかに深刻である。訓練からRL、そして本番推論に至るまでの完全なパイプラインにおける境界摩擦は、それぞれを個別に見ればほぼ最適に近いが、組み合わせると至る所で効率が低下する。
MilesとSGLangの組み合わせは、現在の大規模モデルチームが「トレーニング-RL-推論」の完全なチェーン上で直面している効率のギャップを埋めようとしています。
新モデルDay-0のサポート機能は、Infraチームのエンジニアリング力の直観的な体現です。
4月25日、複雑なアーキテクチャを備えたDeepSeek-V4がリリースされました。その当日、SGLangとMilesは、DeepSeek-V4の推論とRLトレーニングを同時にサポートしました。これは、混合注意機構用に設計されたShadowRadixプレフィックスキャッシュ、単一チップ内で圧縮を完了するFlash Compressor、Top-Kの遅延を15マイクロ秒に圧縮するLightning TopKなど、チームによる基盤レベルのシステム最適化によるものです。また、FP8推論からBF16トレーニングまでの完全なRLパイプラインも実現されました。
フルスタックコンセンサスの保証:
大手が一斉に参入、一体何に焦っているのか?
NVIDIA、AMD、MediaTek、Broadcom、Intel——這些在硬件層至關重要的公司,同時出現在種子輪,這在業界幾乎是不可想象的。事實上,硬件廠商比任何人都清楚,當前算力依舊昂貴且稀缺,僅靠堆疊硬件已無法持續。他們最迫切的需求,是一個真正實現硬件解耦、能在異構平台上將芯片性能發揮到極致的開源推理系統。
Databricks、PyTorchの創始者、OpenAI/Thinking Machines/xAIの第一線の人物が一同に介するということは、モデルとシステム層が「トレーニング・インファレンス統合インフラ」に対する強い期待を示していることを意味する。アンジェル陣容の名前一つ一つが、極めて正確な賭けの視点を示している:
- 陳立武、インテルCEO、半導体業界で数十年にわたり活躍した権威。
- ジョン・シュルマンは、OpenAIの元共同創設者、Thinking Machines Labの共同創設者、強化学習の奠基者の一人です。
- Soumith Chintala——PyTorch共同創設者、グローバルなディープラーニングフレームワークの守護者。
- イゴール・バブチンキン、xAIの元共同設立者。業界で最も複雑なトレーニングシステムとハードウェアプラットフォームを自ら構築。
- リリアン・ウェン、Thinking Machines Lab 共同創設者は、AIシステムの産業レベルでの実装について最前線の洞察を持っています。
これらの人物があらゆる場面で単独で資金調達を引っ張れる存在でありながら、同じキャピタルテーブルに集まることは、未来への熱い賭けである。
すべての人のためのインフラ:AIの構築権を少数者の独占から解放する
RadixArkのビジョンは、一言で言えば:AIインフラを、電力のように広く普及し、信頼でき、誰にも独占されない公共財とするということだ。これは理想主義的な宣言に聞こえるが、実際の実装において、彼らはこの言葉を現実のものにしようとしている:
- 学術界
三年前、LLM推論最適化を研究する博士課程の学生の前にある選択肢は通常二つだけだった:一つはトークン単位で課金されるOpenAIのAPIで、内部構造は一切見られないもの。もう一つは古くからのオープンソースコードで、READMEには「単一GPUで動作する」と記されており、論文で実現したい本物の分散環境とは数年のエンジニアリングの差があった。
SGLangはこの二択を打破了しました——産業レベルの日次スループットと完全なオープンソースコード。スタンフォード、バークレー、CMU、UWのシステム研究チームは、これをデフォルトのベンチマークとして採用しています。エージェントの研究者にとって、RadixAttentionのプレフィックスキャッシュは共有プレフィックスをツリー構造で整理し、同じKVを一度だけ計算するため、元々2日かかっていた実験が半日で完了します。ローカルでの推論において、SGLangを論文で引用することはほぼデフォルトの動作となっています。
- スタートアップ企業
大手企業を離れた一団のエンジニアが、ある特定のシナリオに対する深い理解を携えて起業した。彼らには百万ドル規模の計算リソース予算も、専門のインフラチームもなかったが、製品に対する強い直感だけは持っていた。
かつて、プロダクションレベルの推論パイプラインを構築し、ハードウェア間の互換性を維持するためのエンジニアリング負荷は、シードラウンドの企業の限界を超えることが多く、時間の大部分が繰り返しの輪の再発明に費やされてきた。今や、彼らはSGLangの上に立ち、最先端に近いパフォーマンスの推論サービスを即座に立ち上げ、Milesでドメイン特化モデルを訓練できる。インフラはもはやボトルネックではなく、節約された時間と資金を、彼らが本当に作りたいものにすべて注ぎ込むことができる。
- テクノロジー大手
なぜ、世界最強の内部インフラを有するGoogle、Microsoft、NVIDIAといった大手企業がSGLangのユーザー一覧に名を連ねているのか?その答えは、今回の投資者構造に隠されている——NVIDIA、AMD、MediaTek、Broadcom、Intelという5社の核心的ハードウェアメーカーが同時に参入している。これら企業は、誰よりも理解している。ハードウェアに依存せず、どの競合ともロックインされないオープンソースの推論システムがエコシステム全体にどのような意味を持つのか。コミュニティが共同で維持し、複数のハードウェアメーカーが共同でサポートするオープンソースシステムを利用することは、より高次元のインフラ戦略そのものである。
RadixArkの公式声明は感情を煽らないが、十分に鋭い。
次世代のAIは、プライベートインフラへのアクセス権によって制限されるべきではありません。より多くのチームが、自らのモデル、自らのシステム、自らの未来を所有できるべきです。
この1億ドルのシードラウンド資金は、次の言葉を現実のエンジニアリングに変えるためのものです:SGLangをあらゆる新モデルのDay-0生産標準にし、Milesを大規模学習とRLのインフラレベルのフレームワークにし、その後、オープンソースのカーネルの上に、モデルをロックインせず、顧客を拘束せず、しかしトップレベルのインフラ機能を提供するマネージドプラットフォームを構築します。
RadixArkのビジョンは、誰かを置き換えることではありません。学術研究室、三人のスタジオ、シードラウンドを獲得したばかりのスタートアップが、時価総額兆円の巨大企業と同じインフラのスタートラインに立つことなのです。
2023年のAnthropic、2024年のMistral、2025年のThinking Machines LabがそれぞれAIモデル層における方向性への賭けを象徴するならば、2026年のRadixArkが賭けているのは、より基礎的で、より長期的なものだ:最先端のAI構築権を、本当に十分な数の人々の手に返すこと。
資金調達が完了した後、チームはオープンソースコミュニティへの還元として、プラットフォームに登録しツイートを共有することで、RadixArk ホスティングプラットフォームが正式にリリースされた際に無料利用ポイントを獲得できるキャンペーンを開始しました。このチームはオープンソースコミュニティから育った存在であり、この取り組みは、SGLang を今日まで支えてくれた人々に対して、実際の計算リソースという形で感謝を示すものです。

- リンク:platform.radixark.com
