谷歌 DeepMind 推出全新的視覺 - 語言 - 動作模型(VLA),命名為 Robotic Transformer2(RT-2)。這個模型可以與機器人互動,通過學習網絡和機器人數據,將知識轉化為有效的指令。

RT-2是 RT-1的升級版,基于 Transformer 構建,具有更好的性能和泛化能力。RT-2還在一系列的定性和定量實驗中展示出驚人的學習和理解能力,能夠執行基本推理和多階段的語義推理。通過與思維鏈推理結合,RT-2可以學習長期規劃和低級技能,執行更復雜的命令。

研究人員觀察到,與之前的基線模型相比,RT-2的泛化性能提高了3倍以上。RT-2的成功展示了視覺語言模型轉化為視覺語言動作模型的潛力,為構建通用實體機器人提供了前景。
論文地址:https://robotics-transformer2.github.io/assets/rt2.pdf
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。