摘要
確定移動機器人的狀態是機器人導航系統中重要的組成部分。在本文中,我們提出了一種使用2D激光雷達在室內場景下估計機器人姿態的方法,并探討了如何將新型的場景表示模型整合到標準蒙特卡羅定位(MCL)系統中。在計算機視覺領域,神經輻射場 (Neural Radiance Fields, NeRF)是用一個隱式函數來表示環境。我們將NeRF這樣的隱式環境表示擴展到移動機器人二維室內定位任務中,提出了一種神經占據場,使用神經網絡來隱式的表示用于替代機器人定位任務中的二維地圖。
通過預訓練的神經網絡,我們可以渲染合成當前場景下任意機器人姿態所對應的的2D 激光掃描。基于該隱式地圖,我們提出了一個觀測模型來計算渲染和真實掃描之間的相似性,并將其集成到MCL系統中進行準確的定位。我們在一組自己收集的數據集和三個公開可用的數據集上進行評估。實驗結果證明我們的方法可以準確高效地估計機器人的姿態,并在定位性能優于現有的方法。實驗表明,所提出的隱式地圖模型能夠更準確的表示場景,從而提升了MCL系統中觀測模型的性能。
主要貢獻
我們提出了神經占據場,一種隱式場景表示模型,在該模型之上提出了一個高性能的觀測模型,并整合到基于2D 激光的全局定位系統之中; 我們通過多個數據集的實驗評估,實驗結果證明,與使用傳統場景表示模型(例如:占據柵格地圖,希爾伯特地圖)相比,我們的方法在機器人全局定位方面具有競爭力的性能,且能快速收斂,并實時運行。
主要方法
隱式場景表示
我們利用一組已知準確姿態的2D激光數據作為訓練樣本。如下圖所示,首先根據每一個樣本的姿態和2D激光雷達的內參設置計算得到激光雷達每一條射線的方向,接著在每一條射線上均勻采樣N個空間點。之后,神經網絡將采樣得到的每一個空間點p作為輸入,并輸出該空間點所對應的占據概率pocc。
最后,對于每一條射線,利用光線投射(ray-casting)算法根據采樣點的深度m及其占據概率pocc進行渲染得到射線所對應的深度值:
最終,估計出當前機器人姿態下可能會觀測到的2D激光掃描。接下來,我們通過計算幾何損失以及對預測的占據概率添加正則化來優化神經網絡的參數。
幾何損失是2D激光掃描的估計值和觀測值之間的 L1損失:
占據概率的正則化通過計算一個負對數似然來約束占據概率的預測值接近于1(被占據)或0(不被占據):
最終,用與優化神經網絡參數的損失函數為:
全局定位系統
當神經網絡訓練完成后,我們可以通過預測環境中任意機器人姿態所對應的2D激光觀測。因此,我們將其整合到MCL系統之中,作為一個MCL系統的觀測模型。MCL系統如下圖所示,為了確定機器人當前的姿態,我們首先在當前場景下采樣一定數量的機器人姿態,稱之為“粒子”,如圖中藍色圓環所示。
每一個粒子包含了一個假設的機器人姿態和一個權重。當機器人在環境中運行時,基于隱式表示的觀測模型將每一個粒子的姿態作為輸入,預測其在該姿態下的2D激光掃描,通過和真實的觀測值進行比對來更新粒子的權重,并在每一迭代中移除低權重的粒子,保留高權重的粒子。重復該過程,粒子最終會收斂到真實姿態周圍的一個小區域。我們最終通過對收斂后的粒子姿態進行加權平均后得到估計的機器人姿態。
主要結果
室內全局定位
我們將現有的蒙特卡洛定位算法作為基線,在我們收集的數據集上對比了全局定位的精度,實驗結果如下所示。實驗結果證明,對比于現有的室內定位算法,我們的方法在定位精度上達到了SOTA。此外,相比于之前的方法,我們的算法能更快的收斂。我們還補充了一個姿態追蹤實驗,用于證明我們的算法在不同量級的粒子數目下依然能表現出精確的定位能力。
觀測模型
我們在三個經典的室內數據集(Freiburg Building 079, Intel Lab, MIT CSAIL)對我們的觀測模型進行了評估。通過與基于柵格地圖的觀測模型進行對比,證明了隱式場景表示是一種更準確的地圖表示方法。當訓練數據較少時(如MIT CSAIL數據集),在預測沒有包含在訓練集中的區域時,隱式地圖展現出來更好的泛化能力。
審核編輯:劉清
-
機器人
+關注
關注
211文章
28524瀏覽量
207552 -
神經網絡
+關注
關注
42文章
4774瀏覽量
100909 -
激光雷達
+關注
關注
968文章
3991瀏覽量
190081
原文標題:基于隱式神經網絡NERF的室內激光雷達定位算法
文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論