De acordo com a Forklog, a Nvidia anunciou o Alpamayo-R1, um modelo de linguagem de raciocínio visual de código aberto para direção autônoma, na conferência de IA NeurIPS em San Diego. O modelo, baseado no framework Cosmos-Reason, permite que veículos processem texto e imagens para tomar decisões de direção. A Nvidia destacou que modelos anteriores de direção autônoma enfrentavam dificuldades em cenários complexos, como interseções com múltiplas faixas ou veículos estacionados em fila dupla. O Alpamayo-R1 tem como objetivo fornecer aos veículos autônomos um senso comum semelhante ao humano para uma navegação mais segura. O modelo está disponível no GitHub e no Hugging Face, com recursos de apoio sob o Cosmos Cookbook. A Nvidia também apresentou outras soluções baseadas no Cosmos, incluindo o LidarGen e o ProtoMotions3, e enfatizou seus avanços em IA física e robótica, incluindo o módulo Jetson AGX Thor.
Nvidia Lança Modelo de IA para Condução Autônoma na Conferência NeurIPS
ForklogCompartilhar






Fonte:Mostrar original
Aviso legal: as informações nesta página podem ter sido obtidas de terceiros e não refletem necessariamente os pontos de vista ou opiniões da KuCoin. Este conteúdo é fornecido apenas para fins informativos gerais, sem qualquer representação ou garantia de qualquer tipo, nem deve ser interpretado como aconselhamento financeiro ou de investimento. A KuCoin não é responsável por quaisquer erros ou omissões, ou por quaisquer resultados do uso destas informações.
Os investimentos em ativos digitais podem ser arriscados. Avalie cuidadosamente os riscos de um produto e a sua tolerância ao risco com base nas suas próprias circunstâncias financeiras. Para mais informações, consulte nossos termos de uso e divulgação de risco.