Selon Forklog, Nvidia a annoncé Alpamayo-R1, un modèle de langage open-source pour le raisonnement visuel destiné à la conduite autonome, lors de la conférence NeurIPS sur l'IA à San Diego. Ce modèle, basé sur le framework Cosmos-Reason, permet aux véhicules de traiter du texte et des images afin de prendre des décisions de conduite. Nvidia a souligné que les modèles de conduite autonome précédents avaient des difficultés dans des scénarios complexes, tels que les intersections multi-voies ou les véhicules en double file. Alpamayo-R1 vise à fournir aux véhicules autonomes un sens commun similaire à celui des humains pour une navigation plus sûre. Le modèle est disponible sur GitHub et Hugging Face, accompagné de ressources complémentaires sous le Cosmos Cookbook. Nvidia a également présenté d'autres solutions basées sur Cosmos, notamment LidarGen et ProtoMotions3, et a mis en avant son expansion dans le domaine de l'IA physique et de la robotique, y compris le module Jetson AGX Thor.
Nvidia lance un modèle d'IA pour la conduite autonome lors de la conférence NeurIPS
ForklogPartager






Source:Afficher l'original
Clause de non-responsabilité : les informations sur cette page peuvent avoir été obtenues auprès de tiers et ne reflètent pas nécessairement les points de vue ou opinions de KuCoin. Ce contenu est fourni à titre informatif uniquement, sans aucune représentation ou garantie d’aucune sorte, et ne doit pas être interprété comme un conseil en investissement. KuCoin ne sera pas responsable des erreurs ou omissions, ni des résultats résultant de l’utilisation de ces informations.
Les investissements dans les actifs numériques peuvent être risqués. Veuillez évaluer soigneusement les risques d’un produit et votre tolérance au risque en fonction de votre propre situation financière. Pour plus d’informations, veuillez consulter nos conditions d’utilisation et divulgation des risques.