Según informó HashNews, Tether Data ha anunciado el lanzamiento de QVAC Fabric LLM, un nuevo marco de ejecución para la inferencia y ajuste fino de modelos de lenguaje de gran escala. Esta tecnología permite a los usuarios ejecutar, entrenar y personalizar modelos de lenguaje de gran tamaño directamente en GPUs de consumo, laptops y teléfonos inteligentes, eliminando la necesidad de servidores en la nube de alto rendimiento o sistemas de NVIDIA. QVAC Fabric LLM es compatible con modelos como Llama3, Qwen3 y Gemma3, y amplía el ecosistema de llama.cpp. El entrenamiento es compatible con GPUs de AMD, Intel, NVIDIA, Apple y chips móviles. El marco es de código abierto bajo la licencia Apache 2.0, y se ofrecen binarios precompilados y adaptadores listos para usar en Hugging Face, lo que permite a los desarrolladores ajustar modelos con solo unos pocos comandos.
Tether Data Lanza QVAC Fabric LLM para Permitir el Entrenamiento de Modelos de Lenguaje en Dispositivos de Consumo
KuCoinFlashCompartir






Fuente:Mostrar original
Descargo de responsabilidad: La información contenida en esta página puede proceder de terceros y no refleja necesariamente los puntos de vista u opiniones de KuCoin. Este contenido se proporciona solo con fines informativos generales, sin ninguna representación o garantía de ningún tipo, y tampoco debe interpretarse como asesoramiento financiero o de inversión. KuCoin no es responsable de ningún error u omisión, ni de ningún resultado derivado del uso de esta información.
Las inversiones en activos digitales pueden ser arriesgadas. Evalúa con cuidado los riesgos de un producto y tu tolerancia al riesgo en función de tus propias circunstancias financieras. Para más información, consulta nuestras Condiciones de uso y la Declaración de riesgos.