(文章來源:網絡整理)
在一篇預印的論文中,微軟的研究人員描述了一個機器學習系統,該系統可以從照相機圖像中推理出正確的動作。 它通過模擬訓練,學會在真實世界中獨立駕馭環境和條件,包括看不見的情況,這使得它非常適合部署在搜索和救援任務中的機器人。 有朝一日,它可以幫助這些機器人更快地識別需要幫助的人。
研究人員在本周發表的一篇博文中寫道: “我們希望推動當前的技術,使其更接近于人類,擁有暗示、適應困難條件和自主操作的能力?!?。 “我們有興趣探索這樣一個問題: 如何才能構建出性能水平相當的自動化系統?!眻F隊的框架明確地將感知組件(即,使它所看到的有意義)與控制策略(根據它所看到的決定做什么)分離開來。 它受到人類大腦的啟發,將視覺信息直接映射到正確的控制動作上,即通過將高維視頻幀序列轉換為低維表示來概括世界的狀態。 根據研究人員的說法,這種兩階段的方法使模型更容易解釋和調試。
研究小組將他們的框架應用到一個帶有前置攝像頭的小型四軸飛行器上,試圖“教”人工智能一種策略,即只用攝像頭拍攝的圖像在賽車場上導航。 他們使用一種叫做 AirSim 的高保真模擬器對人工智能進行模擬訓練,之后他們不加修改地將人工智能部署到一架真實的無人機上,使用一種叫做跨模態變分自動編碼器(CM-VAE)的框架來生成密切連接模擬與現實差距的表示。
該系統的感知模塊將輸入圖像壓縮到上述低維表示中,從27,648個變量減少到最基本的10個變量。 解碼后的圖像描述了無人機可以看到的前景,包括所有可能的大小和位置,以及不同的背景信息。研究人員在一個45米長的 s 形軌道上測試了他們的系統的性能,這個 s 形軌道帶有閘門,40米長的圓形軌道帶有一組不同的閘門。 他們說使用 CM-VAE 的策略明顯優于端到端策略和直接編碼下一個門的位置的 AI。 盡管背景條件“強烈”的視覺干擾,無人機還是通過使用跨模態感知模塊完成了課程。
研究結果顯示了該系統在現實世界中幫助人類的“巨大潛力”。 例如,這個系統可以幫助一個自主搜救機器人更好地識別人類,不管他們的年齡、體型、性別和種族有多大差異,這樣機器人就有更好的機會識別和找到需要幫助的人。研究人員寫道: “通過將感知-動作循環分成兩個模塊,并將多種數據模式納入感知訓練階段,我們可以避免將我們的網絡過度適應于傳入數據的非相關特征。”。 例如,即使在模擬實驗和物理實驗中,方形閘門的大小是相同的,但它們的寬度、顏色,甚至內在的攝像機參數都不完全匹配
這項研究是在微軟發起的無人機游戲挑戰之后進行的,該游戲在 AirSim 模擬中讓四翼直升機競賽人工智能系統互相競爭。
(責任編輯:fqj)
-
微軟
+關注
關注
4文章
6591瀏覽量
104026 -
機器學習
+關注
關注
66文章
8408瀏覽量
132567
發布評論請先 登錄
相關推薦
評論