摘要
最近,神經隱含表征在各個領域顯示出令人鼓舞的結果,包括在同步定位和映射(SLAM)方面取得的可喜進展。然而,現有的方法產生了過度平滑的場景重建,并且難以擴展到大場景。這些限制主要是由于其簡單的全連接網絡結構,沒有將局部信息納入觀察范圍。
在本文中,我們提出了NICE-SLAM,這是一個密集的SLAM系統,通過引入分層的場景表示,納入了多層次的本地信息。用預先訓練好的幾何先驗來優化這個表示,可以在大的室內場景中進行詳細的重建。與最近的神經隱含SLAM系統相比,我們的方法更具可擴展性、效率和魯棒性。在五個具有挑戰性的數據集上進行的實驗表明,NICE-SLAM在映射和跟蹤質量方面都具有競爭力。
主要貢獻
我們提出了NICE-SLAM,一個密集的RGB-DSLAM系統,它具有實時性、可擴展性、預測性和對各種挑戰性場景的魯棒性。
NICE-SLAM的核心是一個分層的、基于網格的神經隱式編碼。與全局神經場景編碼相比,這種表示法允許局部更新,這是大規模方法的一個先決條件。
我們在各種數據集上進行了廣泛的評估,證明了在映射和跟蹤方面具有競爭力的性能。
主要方法
我們的方法將RGB-D圖像流作為輸入,并以分層特征網格的形式輸出攝像機的姿勢和學習到的場景表示。從右到左,我們的管道可以被解釋為一個生成模型,它根據給定的場景表示和攝像機姿勢渲染深度和顏色圖像。在測試時,我們通過逆向傳播圖像和深度重建損失來解決逆向問題,并通過可區分的渲染器(從左到右)來估計場景表現和攝像機的姿勢。
這兩個實體都是在交替優化中估計的。映射:逆傳播只更新層次化的場景表示。跟蹤:逆傳播只更新攝像機的姿態。為了提高可讀性,我們將用于幾何編碼的細尺度網格與同等大小的顏色網格結合起來,并將它們顯示為具有兩個屬性(紅色和橙色)的一個網格。
1. 層次化的場景表示
現在我們介紹一下我們的分層場景表示,它結合了多級網格特征和預訓練的解碼器,用于占用率預測。幾何圖形被編碼成三個特征網格j l θ和它們相應的MLP解碼器f l,其中l∈{0,1,2}是指粗、中、細三級場景細節。此外,我們還有一個單一的特征網格ψω和解碼器gω來模擬場景外觀。這里θ和ω表示幾何和顏色的可優化參數,即網格中的特征和顏色解碼器中的權重。
2. 深度和色彩渲染
給定相機的固有參數和當前相機的姿勢,我們可以計算出一個像素坐標的觀察方向r。我們首先沿著這條射線對Nstrat點進行分層采樣,同時對靠近深度的Nimp點進行均勻采樣1。
我們對每條射線總共取樣N=Nstrat+Nimp點。更正式地說,讓pi = o + dir, i∈ {1, - -, N}表示給定攝像機原點o的射線r上的采樣點,di對應于pi沿該射線的深度值。對于每一個點pi,我們可以計算出它們的粗粒度占用概率o0 pi,細粒度占用概率opi,和顏色值cpi。
最后,對于每條射線,在粗略和精細層面的深度,以及顏色可以被呈現為:
3. 建圖和跟蹤
建圖。
為了優化上文提到的場景表示,我們從當前幀和選定的關鍵幀中均勻地取樣共M個像素。接下來,我們以分階段的方式進行優化,以最小化幾何和光度損失。
幾何損失僅僅是觀測值和預測深度之間的L1損失,在粗略的或精細的水平上為:
光度損失為:
相機跟蹤。
除了優化場景表示外,我們還平行運行攝像機跟蹤,以優化當前幀的攝像機姿勢,即旋轉和平移{R,t}。為此,我們對當前幀中的Mt像素進行采樣,并應用上面相同的光度損失,但使用一個修改過的幾何損失:
修改后的損失在重建的幾何形狀中減少了某些區域的權重,例如物體的邊緣。攝像機跟蹤最終被表述為以下最小化問題:
4. 關鍵幀的選擇 與其他SLAM系統類似
我們用一組選定的關鍵幀不斷優化我們的分層場景表示。我們按照iMAP的方法維護一個全局關鍵幀列表,我們根據信息增益逐步添加新的關鍵幀。然而,與iMAP相比,我們在優化場景幾何時只包括與當前幀有視覺重疊的關鍵幀。這是可能的,因為我們能夠對我們的基于網格的表示進行局部更新,而且我們不會像iMap那樣存在關鍵幀消失的問題。
這種關鍵幀選擇策略不僅確保了當前視圖之外的幾何形狀保持靜態,而且還導致了一個非常有效的優化問題,因為我們每次只優化必要的參數。在實踐中,我們首先隨機地對像素進行采樣,并使用優化后的相機姿勢對相應的深度進行反投影。
然后,我們將點云投影到全局關鍵幀列表中的每個關鍵幀。從這些有點投射到的關鍵幀中,我們隨機選擇K-2幀。此外,我們還將最近的關鍵幀和當前的幀包括在場景表示優化中,形成總共K個活動幀。
主要結果
審核編輯:劉清
-
解碼器
+關注
關注
9文章
1143瀏覽量
40768 -
RGB
+關注
關注
4文章
799瀏覽量
58553 -
SLAM
+關注
關注
23文章
425瀏覽量
31847 -
MLP
+關注
關注
0文章
57瀏覽量
4254
原文標題:NICE-SLAM:用于SLAM的神經隱含可擴展編碼(CVPR 2022)
文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論