RadixArk consigue una ronda de semilla de $100 millones para construir la próxima generación de infraestructura abierta de IA

iconMetaEra
Compartir
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconResumen

expand icon
RadixArk ha asegurado una ronda de semilla de $100 millones con una valoración de $400 millones, mientras crece la posición abierta en infraestructura de IA. La ronda fue liderada por Accel y Spark Capital, con el apoyo de NVIDIA, AMD y Databricks. El equipo, detrás del proyecto SGLang, está desarrollando una plataforma agnóstica en hardware para entrenamiento e inferencia de IA. SGLang, con más de 27K estrellas en GitHub, ya es utilizada por Google y Microsoft. Las altcoins a vigilar podrían incluir proyectos con fuerte respaldo institucional y trayectoria en código abierto.
Cuando todos se centran en la batalla por las capas del modelo, un equipo que posee el estándar de hecho para inferencia de código abierto, con el más prestigioso grupo de inversores de ronda semilla de Silicon Valley, dirige oficialmente su atención hacia la nueva infraestructura de IA.

Autor del artículo, fuente: Machine Heart

El 5 de mayo, la startup de infraestructura de IA RadixArk anunció la finalización de una ronda de financiación semilla de 100 millones de dólares, con una valoración post-inversión de 400 millones de dólares. Ya sea por el monto, la valoración o el elenco de inversores, esta es la apuesta inicial más significativa hasta la fecha en la categoría de AI Infra en 2026.

Esta ronda fue liderada por Accel y co-liderada por Spark Capital. Los inversores institucionales incluyen a NVentures, filial de NVIDIA, AMD, MediaTek, Databricks, así como a Salience Capital, HOF Capital, Walden Catalyst, A&E Investment, LDVP y WTT Fubon Family, entre otros líderes del sector. Desde GPU hasta CPU, desde chips de borde hasta plataformas de datos, casi todos los actores clave en hardware central y capa de sistema están presentes.

Fuera del círculo de instituciones de primer nivel, varios líderes tecnológicos globales con antecedentes en Intel, Broadcom, OpenAI, xAI, PyTorch, entre otros, participaron en esta ronda como inversores ángeles.

El CEO de los tres gigantes de hardware + el fundador del laboratorio de modelos de élite + el creador de PyTorch: reunir a este conjunto en una ronda de semilla es extremadamente raro en la historia de la infraestructura de IA. Los inversores familiarizados con este campo lo expresan claramente: están apostando por el «estándar de facto de la próxima generación de infraestructura».

El mejor motor de razonamiento del mundo, en sus manos

La historia de RadixArk debe comenzar con un proyecto de código abierto llamado SGLang.

Desde su creación en 2023, SGLang se ha convertido en uno de los estándares factuales de inferencia de modelos grandes de código abierto, con una velocidad de iteración increíble en solo dos años, acumulando más de 27K estrellas en GitHub y siendo desplegado en más de 400K GPU. Cada día, billones de tokens de tráfico de producción se ejecutan sobre SGLang, y sus usuarios incluyen a Google, Microsoft, NVIDIA, Oracle, AMD, LinkedIn, xAI y Thinking Machines Lab.

En los últimos dos años, la arquitectura de modelos ha experimentado una serie de transformaciones profundas, incluyendo MoE, contexto largo, modelos de razonamiento y fusión multimodal. En cada reestructuración de arquitectura, SGLang logró compatibilidad Day-0: el primer mecanismo de soporte lanzado al abrir el código, con un rendimiento que se acerca directamente al límite físico de la máquina. Una evaluación mencionada repetidamente por los inversores es que la velocidad de iteración de SGLang, combinada con su disciplina de ingeniería, es absolutamente líder entre los proyectos de código abierto.

Detrás de la disciplina subyacente se encuentra un equipo fundador con profunda experiencia en sistemas y algoritmos.

La directora ejecutiva, Ying Sheng, se graduó en la clase ACM de la Universidad Jiaotong de Shanghái y obtuvo su doctorado en la Universidad de Stanford. Es la fundadora de LMSYS Org y una de las principales creadoras de SGLang. Durante su doctorado, realizó investigaciones como becaria visitante en el Sky Lab de la UC Berkeley y trabajó previamente en Databricks y xAI, donde fue responsable del equipo de inferencia de xAI. Su trabajo en áreas como la esparsificación de atención y la reutilización de caché KV ha llamado mucho la atención en la industria, y el mecanismo RadixAttention de SGLang en sus etapas iniciales es uno de sus trabajos más representativos.

El CTO Zhu Banghua se graduó en Ingeniería Electrónica de la Universidad Tsinghua y obtuvo su doctorado en la UC Berkeley, bajo la tutela de los expertos en aprendizaje automático Michael I. Jordan y Jiantao Jiao. Durante su doctorado, cofundó Nexusflow, posteriormente adquirida por NVIDIA, donde se desempeñó como Principal Research Scientist. Entre los proyectos que ha liderado se incluyen la implementación completa de sistemas de entrenamiento industriales, así como optimizaciones de sistemas subyacentes y experiencia prolongada en entrenamiento a gran escala dentro de NVIDIA.

Un técnico líder de un fabricante de hardware clave evaluó que este es el equipo fundador más valioso en el emprendimiento de AI Infra en 2026: por un lado, un emprendedor investigador que controla el estándar de facto en inferencia de código abierto, y por otro, un experto en algoritmos de modelos grandes proveniente del núcleo de investigación de un fabricante de GPU.

Contar con el motor de inferencia SGLang, que procesa trillones de tokens diariamente, ya es el punto de partida soñado para una startup de AI Infra. Pero este equipo no tiene solo una carta en la manga.

Día 0: Domar el aprendizaje por refuerzo de DeepSeek V4

Además del motor de inferencia, RadixArk también ha logrado avances en el lado de entrenamiento.

En noviembre de 2025, el equipo lanzó como código abierto el marco de aprendizaje por refuerzo Miles, enfocado en la estabilidad y eficiencia del entrenamiento de RL a gran escala, y actualmente ya es utilizado por más de 20 equipos para el entrenamiento por refuerzo de modelos MoE.

En 2025-2026, la competencia en capacidades de razonamiento, uso de herramientas y agencia se intensificará por completo, y cada avance requiere un sistema capaz de soportar RL distribuida a escala masiva. Los observadores del sector han señalado un dolor recurrente pero persistentemente irresuelto: lo que más dificulta a los equipos de modelos grandes hoy en día va mucho más allá de cualquier optimización puntual. Las fricciones en los límites de toda la cadena, desde el entrenamiento hasta el RL y luego la inferencia en producción, cada segmento por separado está cerca del óptimo, pero al ensamblarlos, la eficiencia se pierde en cada paso.

La combinación de Miles y SGLang busca cerrar la brecha de eficiencia que enfrentan los equipos de modelos grandes en la cadena completa de «entrenamiento-RL-inferencia».

La capacidad del nuevo modelo Day-0 es una manifestación directa de la solidez técnica del equipo de Infraestructura.

El 25 de abril, se lanzó DeepSeek-V4, con una arquitectura compleja. Ese mismo día, SGLang y Miles lograron admitir simultáneamente la inferencia y el entrenamiento RL de DeepSeek-V4. Esto se debió a optimizaciones sistémicas de bajo nivel del equipo, incluyendo la caché de prefijos ShadowRadix diseñada para atención híbrida, el Flash Compressor que realiza la compresión en un solo chip, y el Lightning TopK que reduce la latencia Top-K a 15 microsegundos, además de establecer una tubería RL completa que va desde la inferencia FP8 hasta el entrenamiento BF16.

Respaldado por consenso full-stack:

¿Qué les está generando ansiedad a los gigantes al entrar todos juntos?

NVIDIA, AMD, MediaTek, Broadcom, Intel: empresas clave en la capa de hardware que aparecen simultáneamente en la ronda seed es casi impensable en la industria. De hecho, los fabricantes de hardware saben mejor que nadie que la capacidad de cómputo sigue siendo cara y escasa, y ya no es sostenible depender únicamente de acumular hardware. El mayor requerimiento que más迫切mente necesitan es un sistema de inferencia abierto verdaderamente desacoplado del hardware, capaz de extraer el máximo rendimiento de los chips en plataformas heterogéneas.

La entrada simultánea de Databricks, los creadores de PyTorch y figuras clave de OpenAI / Thinking Machines / xAI indica una fuerte expectativa por parte del modelo y la capa de sistemas hacia una "infraestructura integrada de entrenamiento e inferencia". Cada nombre en este elenco de inversores iniciales representa una perspectiva de apuesta extremadamente precisa:

  • Chen Liwu, CEO de Intel, una figura legendaria con décadas de experiencia en la industria de semiconductores.
  • John Schulman es cofundador anterior de OpenAI, cofundador de Thinking Machines Lab y uno de los pioneros del aprendizaje por refuerzo.
  • Soumith Chintala — cofundador de PyTorch, el guardián de los marcos de aprendizaje profundo a nivel mundial.
  • Igor Babuschkin, excofundador de xAI, construyó personalmente los sistemas de entrenamiento y plataformas de hardware más complejos de la industria.
  • Lilian Weng, cofundadora de Thinking Machines Lab, tiene la perspectiva más directa sobre la implementación industrial de sistemas de IA.

Cuando personas capaces de liderar una ronda de financiación por sí solas en cualquier contexto eligen aparecer colectivamente en la misma tabla de capital, es una apuesta entusiasta por el futuro.

Infraestructura para todos: que la construcción de la IA ya no esté monopolizada por unos pocos

La visión de RadixArk se puede resumir en una frase: hacer que la infraestructura de IA sea un bien público tan universal y confiable como la electricidad, y que no sea monopolizada por nadie. Esto suena como un manifiesto idealista, pero en la práctica, están convirtiendo esta frase en realidad:

  • Academia

Hace tres años, un estudiante de doctorado que trabajaba en la optimización de inferencia de LLMs tenía frente a sí solo dos opciones: una era la API de OpenAI, cobrada por token y sin acceso a ninguna estructura interna; la otra era código abierto antiguo, cuyo README decía «funciona en una sola GPU», muy lejos del escenario distribuido real que se describía en el artículo, y que requería años de ingeniería para lograrlo.

SGLang rompe esta dicotomía: capacidad industrial de procesamiento diario y código completamente abierto, convirtiéndose en el baseline predeterminado para los grupos de investigación de sistemas de Stanford, Berkeley, CMU y UW. Para los investigadores de agentes, el prefix cache de RadixAttention organiza los prefijos compartidos en una estructura de árbol, calculando las claves y valores idénticas solo una vez, reduciendo experimentos que antes tomaban dos días a solo media jornada; citar SGLang en investigaciones locales se ha convertido casi en una práctica estándar.

  • Startup

Un grupo de ingenieros que dejaron grandes empresas, con una profunda comprensión de un escenario vertical, emprendieron su propio negocio. No tenían un presupuesto de cálculo de millones de dólares ni un equipo de infraestructura dedicado, solo una intuición apasionada por el producto.

Antes, construir tuberías de inferencia a nivel de producción y mantener la carga de ingeniería para la compatibilidad entre hardware a menudo superaba el límite de capacidad de las empresas en la ronda semilla, consumiendo una gran cantidad de tiempo en reinventar la rueda. Ahora, pueden implementar servicios de inferencia con rendimiento cercano a la vanguardia directamente sobre SGLang y entrenar modelos especializados en su dominio con Miles: la infraestructura ya no es un cuello de botella, y el tiempo y el dinero ahorrados pueden invertirse completamente en lo que realmente quieren construir.

  • Gigante tecnológico

¿Por qué gigantes con la infraestructura interna más poderosa del mundo, como Google, Microsoft y NVIDIA, también aparecen en la lista de usuarios de SGLang? La respuesta se encuentra en la estructura de esta ronda de inversionistas: cinco fabricantes clave de hardware —NVIDIA, AMD, MediaTek, Broadcom e Intel— han entrado simultáneamente. Ellos saben mejor que nadie qué significa para todo el ecosistema un sistema de inferencia abierto, independiente del hardware y libre de bloqueo por competidores. Utilizar un sistema abierto mantenido colectivamente por la comunidad y respaldado por múltiples fabricantes de hardware es, en sí mismo, una estrategia de infraestructura de un nivel superior.

La declaración oficial de RadixArk no es sensacionalista, pero es lo suficientemente contundente:

La próxima generación de IA no debería estar limitada por el acceso a infraestructuras privadas. Más equipos deberían poder poseer sus propios modelos, sus propios sistemas, su propio futuro.

Esta ronda de financiación semilla de 100 millones de dólares tiene como objetivo convertir esta frase en una realidad técnica: hacer de SGLang el estándar de producción del día 0 para cualquier nuevo modelo; convertir a Miles en un marco de infraestructura para entrenamiento a gran escala y RL; y luego, sobre un núcleo de código abierto, construir una plataforma alojada que no bloquee modelos ni atadure a los clientes, pero que ofrezca capacidades de infraestructura de primer nivel.

La visión de RadixArk nunca ha sido reemplazar a nadie, sino permitir que un laboratorio académico, un estudio de tres personas, una startup recién financiada en su ronda semilla, y un gigante con una capitalización de mercado de billones de dólares compitan desde la misma línea de partida en infraestructura.

Si Anthropic en 2023, Mistral en 2024 y Thinking Machines Lab en 2025 representaron apuestas direccionales en la capa de modelos de IA, entonces RadixArk en 2026 apuesta por algo más fundamental y más duradero: devolver el derecho de construir IA de vanguardia a suficientes personas.

Tras la finalización de la financiación, el equipo lanzó una iniciativa de devolución a la comunidad de código abierto: participar registrándose en la plataforma y compartiendo en Twitter permitirá obtener puntos de uso gratuito una vez que la plataforma RadixArk esté oficialmente en línea. Para este equipo, que surgió de la comunidad de código abierto, se trata de agradecer con capacidad de cómputo real a quienes han respaldado a SGLang hasta hoy.

  • Enlace: platform.radixark.com
Descargo de responsabilidad: La información contenida en esta página puede proceder de terceros y no refleja necesariamente los puntos de vista u opiniones de KuCoin. Este contenido se proporciona solo con fines informativos generales, sin ninguna representación o garantía de ningún tipo, y tampoco debe interpretarse como asesoramiento financiero o de inversión. KuCoin no es responsable de ningún error u omisión, ni de ningún resultado derivado del uso de esta información. Las inversiones en activos digitales pueden ser arriesgadas. Evalúa con cuidado los riesgos de un producto y tu tolerancia al riesgo en función de tus propias circunstancias financieras. Para más información, consulta nuestras Condiciones de uso y la Declaración de riesgos.