フォークログによると、Nvidiaはサンディエゴで開催されたNeurIPS AIカンファレンスにおいて、オープンソースの視覚推論言語モデル「Alpamayo-R1」を発表しました。このモデルは、Cosmos-Reasonフレームワークに基づいており、車両がテキストや画像を処理して運転判断を行えるようにするものです。Nvidiaは、以前の自動運転モデルが複雑な場面、例えば多車線の交差点や二重駐車車両の存在する状況では対応が難しかった点を指摘しました。「Alpamayo-R1」は、人間のような常識を自動運転車両に提供し、安全なナビゲーションを実現することを目指しています。このモデルはGitHubおよびHugging Faceで利用可能で、「Cosmos Cookbook」に関連リソースが含まれています。また、NvidiaはLidarGenやProtoMotions3などの他のCosmosベースのソリューションも紹介し、Jetson AGX Thorモジュールを含む物理AIやロボティクス分野への取り組みを強調しました。
NvidiaがNeurIPSカンファレンスで自動運転向けAIモデルを発表
Forklog共有






出典:原文を表示
免責事項: 本ページの情報はサードパーティからのものであり、必ずしもKuCoinの見解や意見を反映しているわけではありません。この内容は一般的な情報提供のみを目的として提供されており、いかなる種類の表明や保証もなく、金融または投資助言として解釈されるものでもありません。KuCoinは誤記や脱落、またはこの情報の使用に起因するいかなる結果に対しても責任を負いません。
デジタル資産への投資にはリスクが伴います。商品のリスクとリスク許容度をご自身の財務状況に基づいて慎重に評価してください。詳しくは利用規約およびリスク開示を参照してください。