Clik here to view.

NVIDIA於GTC2025春季場發表開源、可完全自訂的GR00T N1機器人基礎模型,並著手開發Newton物理引擎,提供通用人形機器人便捷的開發環境。
雙系統主管反射、思考
NVIDIA執行長黃仁勳於GTC(GPU技術大會)2025春季場開幕演說中講解多項機器人相關的技術成果與研發趨勢,提供強大的開發環境。除了延續先前GR00T機器人開發計劃,也以開源型式推出GR00T N1機器人基礎模型,讓開發者能夠直接使用或根據需求進行微調,大幅降低從零開始訓練模型的門檻。
與訓練自駕車的概念相同,NVIDIA也使用Omniverse數位攣生與Cosmos生成式世界基礎模建立的合成資料訓練機器人模型,詳細說明請參考《自駕車模型訓練與蒸餾技術分析》一文。
然而與自駕車使用的模型蒸餾技術不同的是,GR00T N1模型採用雙系統架構,其靈感來自於人類的認知原理。「系統1」是快速思考的動作模型,可以類比為人類的反射或直覺動作,而「系統2」則是緩慢思考的模型,用於深思熟慮,進行有條理的決策。
搭載GR00T N1模型的機器人可以透過攝影機與多種感應器收集環境資訊,並在視覺語言模型的支援下,先以「系統2」分析接收到的指令,並進行推論運算以規劃行動,接著以「系統1」將規劃轉換為精確的機器人連續動作。
其中「系統1」的訓練除了以實際人類示範的資料做為素材之外,也大量使用由Omniverse平台產生的合成資料,提高AI模型的精確度以完成各種複雜的動作,開發者也可針對特定的人形機器人或任務,使用真實或合成資料對GR00T N1模型進行維調與後期訓練(Post-Training)。
舉例來說,GR00T N1模型能夠完用1或2隻手臂抓取、移動物品,或是將物品從一隻手臂傳到另一隻手臂,或是執行需要參考長上下文提示詞並結合多種動作的多步驟任務,進而勝任搬運材料、包裝和檢查等工作。
Image may be NSFW.
Clik here to view.
Image may be NSFW.
Clik here to view.
Image may be NSFW.
Clik here to view.
Image may be NSFW.
Clik here to view.
Image may be NSFW.
Clik here to view.
Image may be NSFW.
Clik here to view.
3強聯手打造開源物理引擎
NVIDIA宣布與Google DeepMind及Disney Research(迪士尼研究中心)合作開發的開源物理引擎Newton,它採用NVIDIA Warp框架開發,並且相容於Isaac Lab與Google DeepMind的MuJoCo等模擬框架,並預計導入Disney Research研發的物理引擎,支援模仿人類學習以及反覆試驗學習等多種方式,提供靈活多元的機器人訓練方式,協助開發者根據需求更新機器人技能,並以更高精準度處理複雜任務。
黃仁勳在演說尾聲帶上舞台的BDX droid機器人「Blue」就是由Disney Research立用Newton開發的成果。
對於訓練機器人使用的AI模型而言,提供大量、多樣化、高品質的資料十分重要,然而產製這類資料的成本卻不低,例如真人示範資料受限於工作者的時間,就算不眠不休每天最多也只有24小時能夠錄製示範資料。
而NVIDIA提供的Isaac GR00T Blueprint藍圖以Omniverse與Cosmos產生的合成資料為基礎(詳見自駕車訓練說明),讓開發者能已少量真人示範資料為基礎生成大量合成動作資料,有助於解決上述難題。
舉例來說使用這個藍圖,能在短短11小時生成78萬組合成軌跡,相當於6500小時(等同9個月)的真人示範資料。NVIDIA表示結合真實與合成資料,能夠較單純使用真實資料提高40% GR00T N1效能。
Image may be NSFW.
Clik here to view.
Image may be NSFW.
Clik here to view.
Image may be NSFW.
Clik here to view.
Image may be NSFW.
Clik here to view.
GR00T N1訓練資料和任務評估情境現在可從Hugging Face與GitHub下載,使用者也可以在GitHub下載Isaac GR00T Blueprint,是直接在build.nvidia.com網站查看互動展示。
加入電腦王Facebook粉絲團