人們經常通過觀察周圍的環境和遵循指令在未知的環境中進行導航。而這些指導指令主要由地標和方向指示性指令以及其他常用詞語組成。最近,Google將類似于人類的指令遵循應用到機器人在二維工作空間中的導航任務,為智能體提供指令,并對其進行訓練以遵循指令。為了進行有效導航,Google提出了FollowNet,它是一個用于學習多模態導航策略的端到端的可微神經架構??商岣咧悄荏w在環境中的導航能力。
理解和遵循由人類提供的指令可以使機器人在未知的情況下進行有效的導航。我們提供了FollowNet,它是一個用于學習多模態導航策略的端到端可微的神經架構。FollowNet將自然語言指令以及視覺的深度輸入映射到運動原語(locomotion primitive)。FollowNet在執行導航任務時使用注意力機制來處理指令,該機制以其視覺的深度輸入為條件,以集中于命令的相關部分。深度強化學習(deep reinforcement learning,DRL)的稀疏獎勵要同時學習狀態表征、注意力函數和控制策略。我們在一個復雜的自然語言指令的數據集上評估我們的智能體,以通過一個豐富、真實的模擬家庭數據集來指導智能體。我們指出,FollowNet智能體學習執行以前不可見的用類似詞匯描述的指令,并成功地沿著在訓練期間未遇到的路徑進行導航。在沒有注意力機制的情況下,智能體與基線模型相比顯示出30%的改進,在新指令下的成功率為52%。
圖1:用于從自然語言指令學習導航的房屋的三維渲染。
人們經常通過觀察周圍的環境和遵循指令在未知的環境中導航。這些指令主要由地標和方向性指令以及其他常用詞語組成。例如,人們可以在一個他們以前沒有去過的家中找到廚房,通過遵循以下的指令:“在餐桌處右轉,然后再左轉(Turn right at the dining table, then take the second left)”。這個過程需要視覺上的觀察,例如在視野范圍內的餐桌或關于典型門廳的知識,并執行在這個方向上的動作:向左轉。這里的復雜性有多個維度:有限的視野,像“second”這樣的修飾詞,像“take”和“turn”這樣的同義詞,理解“take left left”指的是門,等等。
圖2:將視覺和語言輸入映射到導航動作的神經模型。左圖:一個示例任務,其中機器人從藍色三角形指定的位置和方向開始,并且必須到達由紅色圓圈指定的目標位置。機器人會收到一條自然語言指令,以便沿著圖像下方列出的標有紅色的路徑行進。右圖:FollowNet架構。
在本文中,我們將類似于人類的指令遵循應用到機器人在二維工作空間中的導航(圖1)。我們給機器人提供了與上述機器人類似的示例指令,并訓練了一個深度強化學習(DRL)智能體以遵循指令。當從不同的位置出發時,該智能體會被測試它遵循新指令的程度。我們通過一個新的深度神經網絡架構FollowNet(圖2)完成了這項工作,該架構是使用Deep Q-Network (DQN)來進行訓練的。觀察空間由自然語言指令和從機器人的有利位置(vantage point)得到的視覺深度觀察組成(圖4b)。策略的輸出是下一個要執行的運動原語(motion primitive)。機器人沿著無障礙的網格(obstacle-free grid)移動,但是指令要求機器人移動超過可變數量的節點以到達目的地。我們使用的指令(表I)包含隱式編碼的房間(implicitly encoded room)、地標和運動原語。在上面的例子中,“廚房”是目標位置的房間。“餐桌”是一個地標示例,在這個點上,智能體可能會改變方向。在沒有智能體的知識的情況下,房間和地標都被映射到成群的網格點。我們使用的是稀疏獎勵,只有當智能體到達一個路標的時候才會給它一個獎勵。
表1:在訓練過程中所使用的指令樣本。
可以這樣說,FollowNet架構的新穎之處在于一種語言指令注意機制(language instruction attention mechanism),它是以智能體的感官觀察為基礎條件的。這使得智能體能夠做兩件事。首先,它追蹤指令命令,并在探索環境時關注不同的部分。其次,它將運動原語(motion primitives)、感官觀察和指令的各個部分與收到的獎勵相關聯,從而使智能體能夠泛化到新的指令中。
我們評估智能體在新指令和新運動計劃中的泛化程度。首先,我們評估一下,在智能體所熟悉的房屋中,它對先前不可見的兩步指示的遵循執行程度。結果表明,該智能體能夠完全遵循52%的指令,局部性遵循61%的指令,比基線增加30%。其次,相同的指令對一組不同的起始位置來說是有效的。例如,“離開房間”這一指令對于房間內的任何起始位置來說都是有效的,但機器人為完成任務而需要執行的運動計劃可能會非常不同。為了了解運動計劃泛化到新的起始位置的程度,我們評估智能體對一個它已經在其經過訓練的指令(最多五步的方向)的遵循執行情況,但是現在是從新的起始位置開始的。智能體能夠局部性地完成70%的指令,完全性地完成54%的指令。從這個角度來看,多步驟的指令對于人們來說也是具有一定的挑戰性的。
圖3:環境中的地標和網格。
端到端的導航方法(End-to-end navigation methods)使用深度強化學習機器人的感官觀察和相對目標位置。在這項研究中,我們提供的是自然語言指令而不是明確的目標,因此智能體必須學會對指令加以解釋從而完成目標。將強化學習應用于機器人的一個挑戰是狀態空間表征。大的狀態空間減慢了學習速度,因此經常使用不同的近似技術。這些例子包括概率路線圖(PRM)和簡單的空間離散化。在這里,我們對二維工作空間進行離散化,并允許智能體通過網格從節點移動到節點。本質上,我們假設機器人可以通過執行與動作相對應的運動原語來避開障礙物并在兩個網格點之間安全地進行移動。
深度學習在學習自然語言和視覺,甚至在結合視覺和語言學習方面取得了巨大成功。要想應用于機器人運動規劃和導航,語言學習通常需要一定程度的解析,其中包括正式的表述、語義分析、概率圖模型、編碼和對齊或基礎任務語言。然而,通過自然語言學習目標標記,主要是通過學習將自然語言指令解析為一種層次結構,用于機器人動作規劃和執行以及主動學習過程。這里,與P. Anderson等人于2017年發表一篇文論相類似,我們的目標是隱式學習地標(目標)和運動原語的標簽,以及它們對視覺觀察的解釋。與之不同的是,我們在FollowNet上使用DQN來學習導航策略。其他研究使用課程(curriculum)來完成一個環境中的多項任務。
圖4:FollowNet智能體的語義分割圖觀察。顏色對應于物體類型(智能體不知道),并且在房屋和有利位置之間保持一致。沙發為綠色(a和c),餐桌為黃色(b和c)。
另一項結合3D導航、視覺和自然語言的研究工作是學習回答問題。這些問題源于一組指定的問題,其中,某些關鍵詞被替換。在我們的研究工作中,提供給智能體的語言指令是由四名人員獨立創建的,并且在未經任何處理的情況下就提交至智能體。有幾種方法從未過濾的語言和視覺輸入中學習。在這些方法中,視覺輸入是整個規劃環境的圖像。相反,FollowNet僅接收部分環境觀測。
本文介紹了FollowNet體系結構,該體系結構使用注意力機制來處理基于多模式感官觀察的自然語言指令,以作為DQN中的動作值函數逼近器。經過訓練的模型只使用視覺和深度信息來學習自然語言指令。結果表明,我們可以同時學習方向性指令的泛化和標志識別。智能體在大多數時間(在幼兒階段)成功地遵循了新的兩步指令(novel two-step directions),比基線水平提高了30%。在今后的研究工作中,我們的目標是在一個更大的數據集上訓練智能體,跨多個領域開展更為深入的分析和經驗評估工作,并探索跨不同環境的泛化能力。
-
機器人
+關注
關注
211文章
28380瀏覽量
206918 -
導航
+關注
關注
7文章
528瀏覽量
42405 -
自然語言
+關注
關注
1文章
287瀏覽量
13346
原文標題:Google提出FollowNet:使用深度強化學習訓練機器人遵循指令進行導航
文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論