เอ็นวิเดียเปิดตัวโมเดล AI สำหรับการขับขี่อัตโนมัติในงานประชุม NeurIPS

iconForklog
แชร์
Share IconShare IconShare IconShare IconShare IconShare IconCopy

ตามข้อมูลจาก Forklog, Nvidia ได้ประกาศเปิดตัว Alpamayo-R1 ซึ่งเป็นโมเดลภาษาเพื่อการให้เหตุผลด้วยภาพแบบโอเพนซอร์สสำหรับการขับขี่อัตโนมัติ ที่งานประชุม NeurIPS AI ในซานดิเอโก โมเดลนี้พัฒนาบนกรอบการทำงาน Cosmos-Reason ช่วยให้ยานพาหนะสามารถประมวลผลข้อความและภาพเพื่อใช้ในการตัดสินใจในการขับขี่ Nvidia เน้นย้ำว่าโมเดลการขับขี่อัตโนมัติรุ่นก่อน ๆ มีปัญหาในการจัดการสถานการณ์ที่ซับซ้อน เช่น ทางแยกหลายเลนหรือยานพาหนะที่จอดซ้อนกัน Alpamayo-R1 ถูกออกแบบมาเพื่อมอบตรรกะที่คล้ายกับสามัญสำนึกของมนุษย์ให้กับยานพาหนะอัตโนมัติ เพื่อการนำทางที่ปลอดภัยยิ่งขึ้น โมเดลนี้สามารถเข้าถึงได้บน GitHub และ Hugging Face พร้อมด้วยทรัพยากรสนับสนุนภายใต้ Cosmos Cookbook นอกจากนี้ Nvidia ยังนำเสนอผลิตภัณฑ์อื่น ๆ ที่ใช้ Cosmos เช่น LidarGen และ ProtoMotions3 และยังเน้นย้ำถึงการขยายตัวในด้าน AI เชิงกายภาพและหุ่นยนต์ รวมถึงโมดูล Jetson AGX Thor อีกด้วย

แหล่งที่มา:แสดงต้นฉบับ
คำปฏิเสธความรับผิดชอบ: ข้อมูลในหน้านี้อาจได้รับจากบุคคลที่สาม และไม่จำเป็นต้องสะท้อนถึงมุมมองหรือความคิดเห็นของ KuCoin เนื้อหานี้จัดทำขึ้นเพื่อวัตถุประสงค์ในการให้ข้อมูลทั่วไปเท่านั้น โดยไม่มีการรับรองหรือการรับประกัน และจะไม่ถูกตีความว่าเป็นคำแนะนำทางการเงินหรือการลงทุน KuCoin จะไม่รับผิดชอบต่อความผิดพลาดหรือการละเว้นในเนื้อหา หรือผลลัพธ์ใดๆ ที่เกิดจากการใช้ข้อมูลนี้ การลงทุนในสินทรัพย์ดิจิทัลอาจมีความเสี่ยง โปรดประเมินความเสี่ยงของผลิตภัณฑ์และความเสี่ยงที่คุณยอมรับได้อย่างรอบคอบตามสถานการณ์ทางการเงินของคุณเอง โปรดดูข้อมูลเพิ่มเติมได้ที่ข้อกำหนดการใช้งานและเอกสารเปิดเผยข้อมูลความเสี่ยงของเรา