色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種基于直接法的動(dòng)態(tài)稠密SLAM方案

3D視覺(jué)工坊 ? 來(lái)源:GiantPandaCV ? 2023-03-13 09:38 ? 次閱讀

0. 引言

基于特征點(diǎn)法的視覺(jué)SLAM系統(tǒng)很難應(yīng)用于稠密建圖,且容易丟失動(dòng)態(tài)對(duì)象。而基于直接法的SLAM系統(tǒng)會(huì)跟蹤圖像幀之間的所有像素,因此在動(dòng)態(tài)稠密建圖方面可以取得更完整、魯棒和準(zhǔn)確的結(jié)果。本文將帶大家精讀2022 CVPR的論文:"基于學(xué)習(xí)視覺(jué)里程計(jì)的動(dòng)態(tài)稠密RGB-D SLAM"。該論文提出了一種基于直接法的動(dòng)態(tài)稠密SLAM方案,重要的是,算法已經(jīng)開源。

1. 論文信息

摘要

我們提出了一種基于學(xué)習(xí)的視覺(jué)里程計(jì)(TartanVO)的稠密動(dòng)態(tài)RGB-D SLAM系統(tǒng)。TartanVO與其他直接法而非特征點(diǎn)法一樣,通過(guò)稠密光流來(lái)估計(jì)相機(jī)姿態(tài)。而稠密光流僅適用于靜態(tài)場(chǎng)景,且不考慮動(dòng)態(tài)對(duì)象。同時(shí)由于顏色不變性假設(shè),光流不能區(qū)分動(dòng)態(tài)和靜態(tài)像素。

因此,為了通過(guò)直接法重建靜態(tài)地圖,我們提出的系統(tǒng)通過(guò)利用光流輸出來(lái)解決動(dòng)態(tài)/靜態(tài)分割,并且僅將靜態(tài)點(diǎn)融合到地圖中。此外,我們重新渲染輸入幀,以便移除動(dòng)態(tài)像素,并迭代地將它們傳遞回視覺(jué)里程計(jì),以改進(jìn)姿態(tài)估計(jì)。

3. 算法分析

圖1所示是作者提出的具有基于學(xué)習(xí)的視覺(jué)里程計(jì)的動(dòng)態(tài)稠密RGB-D SLAM的頂層架構(gòu),其輸出的地圖是沒(méi)有動(dòng)態(tài)對(duì)象的稠密全局地圖。 算法的主要思想是從兩個(gè)連續(xù)的RGB圖像中估計(jì)光流,并將其傳遞到視覺(jué)里程計(jì)中,以通過(guò)匹配點(diǎn)作為直接法來(lái)預(yù)測(cè)相機(jī)運(yùn)動(dòng)。然后通過(guò)利用光流來(lái)執(zhí)行動(dòng)態(tài)分割,經(jīng)過(guò)多次迭代后,移除動(dòng)態(tài)像素,這樣僅具有靜態(tài)像素的RGB-D圖像就被融合到全局地圖中。

ba5894ec-c002-11ed-bfe3-dac502259ad0.png

圖1 基于學(xué)習(xí)的視覺(jué)里程計(jì)的動(dòng)態(tài)稠密RGB-D SLAM頂層架構(gòu)

3.1 分割算法

為了利用來(lái)自TartanVO的光流輸出來(lái)分類動(dòng)態(tài)/靜態(tài)像素,作者提出了兩種分割方法:一種是使用2D場(chǎng)景流作為光流和相機(jī)運(yùn)動(dòng)之間的差值。另一種是提取一幀中的像素到它們匹配的核線的幾何距離。圖2和圖3所示分別為兩種方法的算法原理。

baa98eb0-c002-11ed-bfe3-dac502259ad0.png

圖2 使用基于2D場(chǎng)景流的分割的稠密RGB-D SLAM架構(gòu)

baca19fa-c002-11ed-bfe3-dac502259ad0.png

圖3 基于運(yùn)動(dòng)一致性檢測(cè)的稠密RGB-D SLAM架構(gòu)

在圖2中,作者首先使用來(lái)自TartanVO的匹配網(wǎng)絡(luò)從兩個(gè)連續(xù)的RGB圖像中估計(jì)光流,隨后使用姿態(tài)網(wǎng)絡(luò)來(lái)預(yù)測(cè)相機(jī)運(yùn)動(dòng)。然后通過(guò)從光流中減去相機(jī)自身運(yùn)動(dòng)來(lái)獲得2D場(chǎng)景流,并通過(guò)對(duì)2D場(chǎng)景流進(jìn)行閾值處理來(lái)執(zhí)行動(dòng)態(tài)分割。 同時(shí),靜態(tài)背景被前饋到網(wǎng)絡(luò),以實(shí)現(xiàn)相機(jī)運(yùn)動(dòng)的迭代更新。

經(jīng)過(guò)幾次迭代后,動(dòng)態(tài)像素被移除,僅具有靜態(tài)像素的RGB-D圖像被傳遞到基于點(diǎn)的融合中進(jìn)行重建。圖4所示為使用2D場(chǎng)景流進(jìn)行動(dòng)態(tài)像素分割的原理。

bb65265c-c002-11ed-bfe3-dac502259ad0.png

圖4 圖像平面中投影的2D場(chǎng)景流

在圖3中,作者首先使用來(lái)自TartanVO的匹配網(wǎng)絡(luò)從兩個(gè)連續(xù)的RGB圖像中估計(jì)光流,隨后使用姿態(tài)網(wǎng)絡(luò)來(lái)預(yù)測(cè)相機(jī)運(yùn)動(dòng)。 然后計(jì)算從第二幀中的像素到它們的對(duì)應(yīng)核線的距離,其中核線使用光流從匹配像素中導(dǎo)出。

最后通過(guò)距離閾值化來(lái)執(zhí)行動(dòng)態(tài)分割。經(jīng)過(guò)幾次迭代后,動(dòng)態(tài)像素被移除,僅具有靜態(tài)像素的RGB-D圖像被傳遞到基于點(diǎn)的融合中進(jìn)行重建。

圖3所示的動(dòng)態(tài)稠密框架基于的思想是:如果場(chǎng)景中沒(méi)有動(dòng)態(tài)物體,那么第二幀圖像中的每個(gè)像素應(yīng)該在其第一幀圖像匹配像素的核線上。 在這種情況下,可以使用給定的相機(jī)位姿、光流和內(nèi)在特性進(jìn)行分割,而不是將第一幀圖像直接投影到第二幀。這種方法也被作者稱為"運(yùn)動(dòng)一致性"檢測(cè)。

圖5所示是運(yùn)動(dòng)一致性的細(xì)節(jié)檢測(cè)原理。該算法首先獲得匹配的像素對(duì),即每對(duì)圖像中的像素直接施加光流矢量到第一幀上,并計(jì)算具有匹配像素對(duì)的基礎(chǔ)矩陣。 然后,再計(jì)算每個(gè)像素的對(duì)應(yīng)核線基本矩陣和像素的位置。當(dāng)?shù)诙衅ヅ湎袼嘏c它的核線大于閾值時(shí),它被分類作為動(dòng)態(tài)像素。

bc15f6ee-c002-11ed-bfe3-dac502259ad0.png

圖5 運(yùn)動(dòng)一致性檢測(cè)的算法原理

3.2 迭代和融合

在RGB-D圖像中僅剩下靜態(tài)像素后,作者迭代地將其傳遞回TartanVO進(jìn)行改進(jìn)光流估計(jì),從而獲得更精確的相機(jī)姿態(tài)。理想情況下,通過(guò)足夠的迭代,分割掩模將移除與動(dòng)態(tài)對(duì)象相關(guān)聯(lián)的所有像素,并且僅在圖像中留下靜態(tài)背景。 同時(shí)作者發(fā)現(xiàn),即使使用粗糙的掩模,仍然可以提高TartanVO的ATE。另外,如果粗掩模允許一些動(dòng)態(tài)像素進(jìn)入最終重建,那么它們將很快從地圖中移除。

經(jīng)過(guò)固定次數(shù)的迭代后,將去除了大多數(shù)動(dòng)態(tài)像素的細(xì)化圖像對(duì)與其對(duì)應(yīng)的深度對(duì)一起進(jìn)行融合。數(shù)據(jù)融合首先將輸入深度圖中的每個(gè)點(diǎn)與全局圖中的點(diǎn)集投影關(guān)聯(lián),使用的方法是將深度圖渲染為索引圖。 如果找到相應(yīng)的點(diǎn),則使用加權(quán)平均將最可靠的點(diǎn)與新點(diǎn)估計(jì)合并。

如果沒(méi)有找到可靠的對(duì)應(yīng)點(diǎn),則估計(jì)的新點(diǎn)作為不穩(wěn)定點(diǎn)被添加到全局圖中。

隨著時(shí)間的推移,清理全局地圖,以去除由于可見(jiàn)性和時(shí)間約束導(dǎo)致的異常值,這也確保了來(lái)自分割的假陽(yáng)性點(diǎn)將隨著時(shí)間的推移而被丟棄。因?yàn)樽髡呃贸砻艿墓饬鞑⒃诿總€(gè)像素上分割圖像而不進(jìn)行下采樣,所以算法可以重建稠密的RGB-D全局圖。

4. 實(shí)驗(yàn)

作者使用TUM數(shù)據(jù)集中的freiburg3行走xyz序列,圖6和圖7所示為使用2D場(chǎng)景流的分割結(jié)果。

bc41baa4-c002-11ed-bfe3-dac502259ad0.png

圖6 基于2D場(chǎng)景流動(dòng)態(tài)分割向左移動(dòng)的對(duì)象

bc6d6a3c-c002-11ed-bfe3-dac502259ad0.png

圖7 基于2D場(chǎng)景流動(dòng)態(tài)分割向右移動(dòng)的對(duì)象

隨后,作者迭代地將重新渲染的圖像對(duì)傳遞回TartanVO。作者認(rèn)為這一操作將改進(jìn)光流估計(jì),并且獲得更精確的相機(jī)姿態(tài),如圖8所示是實(shí)驗(yàn)結(jié)果。其中左圖是使用原始TartanVO的絕對(duì)軌跡誤差,右圖是使用改進(jìn)TartanVO的絕對(duì)軌跡誤差。實(shí)驗(yàn)結(jié)果顯示,如果有足夠的迭代,分割過(guò)程將移除動(dòng)態(tài)物體中的大多數(shù)像素,并且僅保留靜態(tài)背景。

bd56fb5c-c002-11ed-bfe3-dac502259ad0.png

圖8 原始TartanVO和回環(huán)優(yōu)化的軌跡誤差對(duì)比結(jié)果

圖9所示是在TUM整個(gè)freiburg3行走xyz序列上的重建結(jié)果,結(jié)果顯示動(dòng)態(tài)對(duì)象(兩個(gè)移動(dòng)的人)已經(jīng)從場(chǎng)景中移除,只有靜態(tài)背景存儲(chǔ)在全局地圖中。

bdcd0068-c002-11ed-bfe3-dac502259ad0.png

圖9 基于點(diǎn)融合的三維重建結(jié)果

此外,為了進(jìn)行不同方法的對(duì)比,作者首先嘗試掩蔽原始圖像以濾除對(duì)應(yīng)于3D中的動(dòng)態(tài)點(diǎn)的像素,然后,在此之上嘗試用在先前圖像中找到的匹配靜態(tài)像素來(lái)修補(bǔ)空缺,但降低了精度。與產(chǎn)生0.1248的ATE的TartanVO方法相比,原始掩蔽方法產(chǎn)生了更理想的光流,而修補(bǔ)方法產(chǎn)生因?yàn)楫a(chǎn)生過(guò)多的偽像而阻礙了光流的計(jì)算。如圖10所示是對(duì)比結(jié)果。

beafc7d6-c002-11ed-bfe3-dac502259ad0.png

圖10 tartan VO的三種輸入類型對(duì)比

5.結(jié)論

在2022 CVPR論文"Dynamic Dense RGB-D SLAM using Learning-based Visual Odometry"中,作者提出了一種全新的動(dòng)態(tài)稠密RGB-D SLAM框架,它是一種基于學(xué)習(xí)視覺(jué)里程計(jì)的方法,用于重建動(dòng)態(tài)運(yùn)動(dòng)物體干擾下的靜態(tài)地圖。重要的是,算法已經(jīng)開源,讀者可在開源代碼的基礎(chǔ)上進(jìn)行二次開發(fā)。

此外,作者也提到了基于該論文的幾個(gè)重要的研究方向:

(1) 引入自適應(yīng)閾值機(jī)制,通過(guò)利用流、姿態(tài)和地圖等來(lái)為分割提供更一致的閾值。

(2) 在預(yù)訓(xùn)練的基于學(xué)習(xí)的視覺(jué)里程計(jì)中,使用對(duì)相機(jī)姿態(tài)和光流的BA來(lái)補(bǔ)償大范圍運(yùn)動(dòng)感知。

(3) 使用動(dòng)態(tài)感知迭代最近點(diǎn)(ICP)算法來(lái)代替TartanVO中的姿態(tài)網(wǎng)絡(luò)。

(4) 在更多樣化的數(shù)據(jù)集上進(jìn)行測(cè)試和迭代,以提供更好的魯棒性。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • RGB
    RGB
    +關(guān)注

    關(guān)注

    4

    文章

    798

    瀏覽量

    58462
  • SLAM
    +關(guān)注

    關(guān)注

    23

    文章

    423

    瀏覽量

    31823
  • ATE
    ATE
    +關(guān)注

    關(guān)注

    5

    文章

    124

    瀏覽量

    26622
  • ICP
    ICP
    +關(guān)注

    關(guān)注

    0

    文章

    70

    瀏覽量

    12778

原文標(biāo)題:基于學(xué)習(xí)視覺(jué)里程計(jì)的動(dòng)態(tài)稠密RGB-D SLAM

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    從基本原理到應(yīng)用的SLAM技術(shù)深度解析

    LSD-SLAM 即 Large-Scale Direct SLAM,兼容單目相機(jī)和雙目相機(jī)。LSD-SLAM一種基于光流跟蹤的直接法
    發(fā)表于 02-26 09:41 ?9190次閱讀
    從基本原理到應(yīng)用的<b class='flag-5'>SLAM</b>技術(shù)深度解析

    一種中頻直接采樣方案

    一種中頻直接采樣方案
    發(fā)表于 11-25 15:47

    SLAM技術(shù)的應(yīng)用及發(fā)展現(xiàn)狀

    也將SLAM分為激光SLAM和視覺(jué)SLAM。激光SLAM比視覺(jué)SLAM起步早,在理論、技術(shù)和產(chǎn)品落地上都相對(duì)成熟。基于視覺(jué)的
    發(fā)表于 12-06 10:25

    視覺(jué)SLAM特征點(diǎn)法與直接法對(duì)比分析

    視覺(jué)SLAM——特征點(diǎn)法與直接法對(duì)比以及主流開源方案對(duì)比 ORB LSD SVO DSO
    發(fā)表于 06-02 16:56

    一種基于嵌入式系統(tǒng)和Internet的FPGA動(dòng)態(tài)配置方案

    本文介紹了一種基于嵌入式系統(tǒng)和Internet的FPGA動(dòng)態(tài)配置方案。該方案的提出,旨在基于系統(tǒng)現(xiàn)有的、通用的軟硬件資源,盡可能地提高FPGA配置的效率和靈活性。實(shí)踐證明,該
    發(fā)表于 05-07 06:43

    分享一種FPGA的動(dòng)態(tài)配置方案

    本文提出了一種基于嵌入式系統(tǒng)和Internet的FPGA動(dòng)態(tài)配置方案
    發(fā)表于 05-27 06:38

    一種基于動(dòng)態(tài)口令和動(dòng)態(tài)ID的遠(yuǎn)程認(rèn)證方案

    口令認(rèn)證是遠(yuǎn)程身份認(rèn)證中最常見(jiàn)的一種方式。介紹并分析了靜態(tài)口令和靜態(tài)ID的不足,因?yàn)樗鼈冊(cè)诰W(wǎng)絡(luò)傳輸過(guò)程中會(huì)泄露用戶的部分登錄信息,提出了將動(dòng)態(tài)口令和動(dòng)態(tài)ID結(jié)合起來(lái)運(yùn)
    發(fā)表于 02-26 13:46 ?17次下載

    一種適用于動(dòng)態(tài)場(chǎng)景的SLAM方法

    同時(shí)定位與地圖構(gòu)建(SLAM)作為機(jī)器人領(lǐng)域的硏究熱點(diǎn),近年來(lái)取得了快速發(fā)展,但多數(shù)SLAM方法未考慮應(yīng)用場(chǎng)景中的動(dòng)態(tài)或可移動(dòng)目標(biāo)。針對(duì)該問(wèn)題,提出一種適用于
    發(fā)表于 03-18 10:39 ?21次下載
    <b class='flag-5'>一種</b>適用于<b class='flag-5'>動(dòng)態(tài)</b>場(chǎng)景的<b class='flag-5'>SLAM</b>方法

    一種基于RBPF的、優(yōu)化的激光SLAM算法

    針對(duì)基于RBPF的激光SLAM算法在重采樣過(guò)程中出現(xiàn)的樣本貧化和激光測(cè)量模型不準(zhǔn)確的問(wèn)題,提出優(yōu)化的激光SLAM算法。為緩解重采樣過(guò)程中的樣本貧化問(wèn)題,采用最小采樣方差重采樣方法改進(jìn)原重采樣方法
    發(fā)表于 04-01 10:48 ?6次下載
    <b class='flag-5'>一種</b>基于RBPF的、優(yōu)化的激光<b class='flag-5'>SLAM</b>算法

    基于增強(qiáng)動(dòng)態(tài)稠密軌跡特征的視頻布料材質(zhì)識(shí)別

    為了克服基于視頻的布料材質(zhì)識(shí)別中由于忽略了動(dòng)態(tài)因素的影響導(dǎo)致材質(zhì)識(shí)別準(zhǔn)確率低的難點(diǎn),利用布料仿真視頻庫(kù),提岀一種基于增強(qiáng)動(dòng)態(tài)稠密軌跡特征的布料材質(zhì)識(shí)別方法以有效識(shí)別布料的材質(zhì)屬性信息。
    發(fā)表于 05-11 15:18 ?7次下載

    基于增強(qiáng)動(dòng)態(tài)稠密軌跡特征的布料材質(zhì)識(shí)別技術(shù)

    基于增強(qiáng)動(dòng)態(tài)稠密軌跡特征的布料材質(zhì)識(shí)別技術(shù)
    發(fā)表于 06-25 10:56 ?10次下載

    一種快速的激光視覺(jué)慣導(dǎo)融合的slam系統(tǒng)

    個(gè)建立在兩個(gè)基于直接法的緊耦合的完整的激光視覺(jué)慣導(dǎo)融合的slam框架;
    的頭像 發(fā)表于 11-09 09:55 ?1528次閱讀

    關(guān)于視覺(jué)SLAM直接法的介紹

    而關(guān)于SLAM,它是英文“同時(shí)定位與建圖”的縮寫。而有時(shí)候,我們還會(huì)聽到VO,SfM等概念,而因此容易混淆。
    的頭像 發(fā)表于 11-30 09:22 ?1067次閱讀

    3D重建的SLAM方案算法解析

    GO-SLAM主要還是基于NeRF進(jìn)行稠密重建,可以發(fā)現(xiàn)相較于NICE-SLAM這些SOTA方案,GO-SLAM重建場(chǎng)景的全局
    發(fā)表于 09-11 10:03 ?1476次閱讀
    3D重建的<b class='flag-5'>SLAM</b><b class='flag-5'>方案</b>算法解析

    一種適用于動(dòng)態(tài)環(huán)境的實(shí)時(shí)視覺(jué)SLAM系統(tǒng)

    既能保證效率和精度,又無(wú)需GPU,行業(yè)第個(gè)達(dá)到此目標(biāo)的視覺(jué)動(dòng)態(tài)SLAM系統(tǒng)。
    的頭像 發(fā)表于 09-30 14:35 ?465次閱讀
    <b class='flag-5'>一種</b>適用于<b class='flag-5'>動(dòng)態(tài)</b>環(huán)境的實(shí)時(shí)視覺(jué)<b class='flag-5'>SLAM</b>系統(tǒng)
    主站蜘蛛池模板: 少妇高潮A片特黄久久精品网| 国产国拍精品AV在线观看| 嫩草影院成人| 2020年国产精品午夜福利在线观看 | 亚洲人人为我我为人人| 国产亚洲精品久久精品6| 亚洲AV怡红院影院怡春院| 国内精品自产拍在线少密芽| 亚洲mv在线观看| 精品成人片深夜| 在线免费观看毛片| 免费看亚洲| 菠萝菠萝蜜在线观看视频| 色戒西瓜视频| 国产欧美一区二区三区免费| 亚洲AV美女成人网站P站| 精品国产露脸久久AV麻豆| 伊人久久综合成人亚洲| 擼擼擼麻豆密臀AV| MD传媒MD0021在线观看| 色橹橹欧美在线观看视频高清| 国产成+人+综合+亚洲不卡| 性派对xxxhd| 久久不射电影网| 97成人在线| 日韩亚洲国产欧美免费观看| 国产精品久久精品| 亚洲熟妇色自偷自拍另类| 老湿机一区午夜精品免费福利| 99精品免费久久久久久久久日本| 轻轻cao| 国产婷婷一区二区在线观看| 亚洲综合日韩中文字幕v在线| 两个洞一起插哦!好刺激| seyeye高清视频在线| 甜性涩爱免费下载| 九九夜夜妹子| CHINA中国东北GURMA| 天天躁日日躁狠狠躁午夜剧场| 黑人开嫩苞| 99久久久免费精品免费|