Nvidia lanza modelo de IA para conducción autónoma en la conferencia NeurIPS

iconForklog
Compartir
Share IconShare IconShare IconShare IconShare IconShare IconCopy

Según Forklog, Nvidia anunció Alpamayo-R1, un modelo de lenguaje de razonamiento visual de código abierto para conducción autónoma, durante la conferencia de IA NeurIPS en San Diego. El modelo, basado en el marco Cosmos-Reason, permite a los vehículos procesar texto e imágenes para tomar decisiones de conducción. Nvidia destacó que los modelos anteriores de conducción autónoma tenían dificultades en escenarios complejos, como intersecciones de múltiples carriles o vehículos estacionados en doble fila. Alpamayo-R1 tiene como objetivo proporcionar a los vehículos autónomos un sentido común similar al humano para una navegación más segura. El modelo está disponible en GitHub y Hugging Face, junto con recursos de apoyo bajo Cosmos Cookbook. Nvidia también presentó otras soluciones basadas en Cosmos, como LidarGen y ProtoMotions3, y enfatizó su avance en la inteligencia artificial física y la robótica, incluyendo el módulo Jetson AGX Thor.

Descargo de responsabilidad: La información contenida en esta página puede proceder de terceros y no refleja necesariamente los puntos de vista u opiniones de KuCoin. Este contenido se proporciona solo con fines informativos generales, sin ninguna representación o garantía de ningún tipo, y tampoco debe interpretarse como asesoramiento financiero o de inversión. KuCoin no es responsable de ningún error u omisión, ni de ningún resultado derivado del uso de esta información. Las inversiones en activos digitales pueden ser arriesgadas. Evalúa con cuidado los riesgos de un producto y tu tolerancia al riesgo en función de tus propias circunstancias financieras. Para más información, consulta nuestras Condiciones de uso y la Declaración de riesgos.