色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

視覺SLAM開源算法ORB-SLAM3原理與代碼解析

INDEMIND ? 來源:INDEMIND ? 2023-11-09 17:25 ? 次閱讀

ORB-SLAM最早的版本在2014年的RSS上發布,在2016年作者又發布了ORB-SLAM2,接著在2020年發布了ORB-SLAM 3。ORB-SLAM1只能針對單目相機數據進行處理;ORB-SLAM 2 增加了對于雙目和RGB-D相機的處理,在回環檢測模塊增加了Full Global BA的處理;ORB-SLAM 3則增加了對于IMU融合的支持,兼容魚眼相機模型,并且增加了Altas多地圖的支持;同時,回環檢測為了支持多地圖的模式,提供了一種叫Welding BA的優化方式。ORB -SLAM的作者將上述提到的各版本項目都開源了,為學術研究還是工程落地都提供了很好的參考。

01

基礎概念

首先來介紹一下ORB SLAM中涉及的一些基礎概念。

幀&關鍵幀:視覺SLAM都是對一個圖像序列進行處理,每一張圖像被稱為幀,而關鍵幀則是通過一定篩選機制得到的、具有一定代表性的圖像幀。

地圖點/路標點:將圖像上被觀察到的特征點通過三角化等方式進行深度恢復,我們就可以得到其對應的在三維空間的位置,同時包含幀的觀測信息,這種點就被稱為地圖點或路標點。

共視:當一個地圖點被多幀觀察到時,我們就可以稱這幾幀有基于該地圖點的共視關系。

共視圖&本質圖:我們可以把共視關系作用邊表示,關鍵幀用節點表示,就可以建立共視圖,而本質圖在共視圖基礎上只保留具有較強共視關系的邊。

d37f29b6-7ee0-11ee-939d-92fbcf53809c.png

Altas(地圖集):ORB-SLAM 3提供了多地圖的存儲和拼接功能,在跟蹤丟失后可以嘗試將現有地圖和歷史地圖進行匹配、融合,并更新當前的活躍地圖(Active Map)。

數據關聯:在語義SLAM中,第k幀檢測到物體Obj1、Obj2,第k+1幀檢測到物體Obj3、Obj4,確定Obj1和Obj3、Obj4中的哪一個是對真實世界中同一個物體的多次觀測,這是數據關聯的一個直觀例子。在間接法(特征法)SLAM中,表現為不同幀中的特征,哪些是對應于同一個空間路標點/地圖點的。在ORB3中考慮到的數據關聯包括短期內滑動窗口中關鍵幀觀測到的路標點和圖像特征的數據關聯;中期的數據關聯是指圖像特征與局部地圖點的關聯;長期的數據關聯包括利用場景識別技術和詞袋模型,在回環檢測、重定位等過程中的數據關聯;而多地圖的數據關聯還可以實現地圖之間地圖點的匹配和融合。

ORB-SLAM 3的基本流程和此前的ORB版本沒有顯著的改變,只是也增加了部分新特性。基于詞袋模型的關鍵幀數據和之前差不多,每一個關鍵幀均會被存入數據庫用于回環檢測。地圖結構上進行了改進,ORB-SLAM3使用Altas地圖集的結構,地圖中包含一個Active Map和若干個Non-active Map,每個Map均包括地圖點,關鍵幀,共視圖,Spanning Tree等信息。跟蹤線程添加了IMU的積分,并且和以前一樣進行關鍵幀的判斷和構造;在LocalMapping線程中中執行IMU的初始化,以及和之前相同的冗余關鍵幀和地圖點剔除、新地圖點的創建等工作;在回環檢測部分主要添加了多地圖的融合。

d39219c2-7ee0-11ee-939d-92fbcf53809c.png

ORB-SLAM 3框架

總結一下,ORB-SLAM3的貢獻包括:

1、提供了一個單雙目VI-SLAM的系統;

2、改善召回率的場景識別技術;

3、多地圖機制;

4、抽象的相機表示。

02

抽象相機模型介紹

為什么ORB-SLAM3需要一個抽象的相機模型呢?

相比于傳統相機,魚眼相機超過180度的廣視角可以獲取更多的信息,但是因為它不符合針孔模型數學建模的假設,導致uniform reprojection error的假設失效;如果對于圖像直接進行裁剪,將會導致外圍圖像丟失,反而喪失了魚眼相機大視角的優勢。在ORB-SLAM3中,相機成像模型提供投影、反投影和相關的雅克比計算等函數,并且將此前系統中的EPNP更換為MAP-PNP, 從而實現了相機成像模型與SLAM部分的解耦,還可以擴展,能將相同的SLAM pipeline用于大部分類型的相機。

此外,針對雙目相機模型,ORB-SLAM3也提供了一定的改善。ORB-SLAM2假設我們針對雙目相機預先進行了極線矯正,但是很多時候由于無法保證左右目相機光軸的絕對平行,極線矯正的效果也往往不好;而有些時候,我們需要使用兩個參數不同的相機進行觀測,而ORB-SLAM2無法兼容這類雙目相機,如類似RGB-D相機中焦距、分辨率相差巨大的彩色相機+近紅外相機,如果將彩色圖像和近紅外圖像組成雙目圖像,ORB-SLAM2無法綜合利用這對圖像估計相機位姿。在ORB-SLAM3中將左右兩目相機視作為具有固定位姿變換的兩臺單目相機使用,并且也不再限制兩臺相機必須具有足夠面積的、重疊的共視區域,解決了這個問題。

03

VISLAM實現和IMU初始化

ORB-SLAM3中VI-SLAM在ORB-SLAM-VI上進行了改進,包括:提供快速,準確的IMU初始化;支持單雙目VI-SLAM;支持針孔/魚眼相機模型。在視覺和IMU融合方面,ORB-SLAM3在位姿求解時所建立優化問題的殘差項,包括所有關鍵幀和上一幀IMU估計的殘差項,以及所有路標點觀測的視覺誤差項。其中針對視覺路標點的觀測,為了避免錯誤匹配造成的極端值的影響,嵌套了魯棒核函數。

IMU初始化的目的是為了得到Body系速度、重力方向和IMU偏置。ORB-SLAM3中初始化流程的設計建立在作者的幾點思考上:

1、ORB-SLAM純單目已經可以初始化得到精確的地圖,尺度信息可以通過IMU得到;雙目圖像輸入下則尺度客觀,可以不考慮尺度信息的問題;

2、如果將尺度單獨作為優化變量進行表示和優化,效果比在BA中的隱式表達收斂更快;

3、IMU初始化過程中必須考慮傳感器的不確定性,否則會產生難以預測的巨大誤差。

接下來的討論IMU初始化問題時,均指單目輸入時的初始化。ORB3中IMU初始化的步驟包含三步,第一步是純視覺最大后驗估計(MAP),第二步是純慣性MAP,第三步是視覺+慣性MAP。針對純視覺MAP,我們提取初始化后2s內10幀圖像進行純視覺BA,從而得到沒有尺度信息的相機位姿和路標點位置。接下來我們進行只有IMU參與的初始化,最終得到的優化結果是:幀位姿、速度和地圖點,并都具有正確的尺度;Body系Z軸將被旋轉到和重力方向一致;IMU的偏置被更新。第三步是視覺IMU聯合后驗估計,ORB-SLAM3只需要2秒就可以完成尺度的初始化,誤差在5%左右,此外,ORB-SLAM3還將進行只包含尺度因子和重力方向的優化,10秒一次,用于避免傳感器運動緩慢時IMU激勵不夠的情況。

ORB-SLAM3中的跟蹤和建圖和ORB-SLAM-VI類似,在短期跟丟后,在滿足一定條件時會嘗試利用IMU積分得到的位姿信息進行重定位;當丟失持續一定時間后,將會重新初始化,創建新的Active map。

04

改進的回環檢測與多地圖融合

這一部分的內容很大程度上和ORB-SLAM2是相同的,我們首先來回顧一下基本概念。

準確率(PrecisionRate):檢測到的回環中正確的比率。

召回率(RecallRate):檢測到的回環占總真實回環數的比率。

在ORB-SLAM1/2中,僅通過DBoW詞袋數據庫就可實現50%~80%的準確率和召回率。在回環時,通過增加幾何一致性和時間一致性檢驗,犧牲召回率來增加準確率。ORB-SLAM3改進了回環檢測的速度,提高了召回率,并且增加了多地圖的部分。

尋找閉環幀的過程可以分為六步:

1.針對每一個新關鍵幀,在數據庫中查詢到三個最相似的關鍵幀;

2.嘗試對新關鍵幀及其共視關鍵幀,和候選關鍵幀及其共視關鍵幀進行數據關聯;

3.利用匹配的特征點和地圖點求解位姿轉換;

4.利用位姿變換的初始估計,進行點云重投影尋找新的匹配,并且進行位姿的優化求精;

5.對時間一致性的檢驗,此前的步驟相對復雜,在ORB-SLAM3中局部地圖里面已有關鍵幀的共視信息進行判斷;

6.利用重力方向對于回環結果進行檢查。

回環檢測后是進行回環還是地圖合并,取決于當前關鍵幀檢測到的回環關鍵幀是在當前的active map還是在其他map。當對non-active map和active map進行融合時,共視圖和本質圖同步更新,active map中的信息被追加到歷史地圖中,匹配到的non-active map變成新的map。

05

總結

總體來說,ORB-SLAM3的流程和ORB-SLAM1/2非常相似,對于ORB-SLAM系列熟悉的同學應該很容易上手;相機模型的抽象處理,使得SLAM位姿求解過程和相機成像模型解耦,理論上支持絕大多數成像模型的相機;通過對于IMU的支持,ORB-SLAM系列加入了VI-SLAM的大家庭,也表明多傳感器融合的SLAM是目前一大發展趨勢;多地圖的機制有利于跟丟后保留盡可能多的信息用于后續補救,也為后續實現多機器協同的SLAM提供了工作基礎。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4607

    瀏覽量

    92842
  • 圖像
    +關注

    關注

    2

    文章

    1083

    瀏覽量

    40449
  • SLAM
    +關注

    關注

    23

    文章

    423

    瀏覽量

    31823

原文標題:干貨丨視覺SLAM開源算法ORB-SLAM3 原理與代碼解析

文章出處:【微信號:gh_c87a2bc99401,微信公眾號:INDEMIND】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    請問用樹莓派運行ORB-SLAM2算法可行嗎?

    最近想用樹莓派3B跑ORB-SLAM2,現在的問題就是Pangolin無法執行,每次執行都報錯 Pangolin X11: Unable to retrieve framebuffer
    發表于 03-15 22:30

    SLAM技術的應用及發展現狀

    應用行業也可分為兩大類,即工業領域和商業領域。商業用途方面,目前應用最為成熟的應該是掃地機行業,而掃地機也算機器人里最早用到SLAM技術這一批了,國內的科沃斯、塔米掃地機、嵐豹掃地機通過用SLAM算法
    發表于 12-06 10:25

    視覺SLAM特征點法與直接法對比分析

    視覺SLAM——特征點法與直接法對比以及主流開源方案對比 ORB LSD SVO DSO
    發表于 06-02 16:56

    視覺SLAM筆記總結

    【總結】視覺SLAM筆記整理
    發表于 07-17 14:05

    激光SLAM視覺SLAM有什么區別?

    機器人定位導航中,目前主要涉及到激光SLAM視覺SLAM,激光SLAM在理論、技術和產品落地上都較為成熟,因而成為現下最為主流的定位導航方式,在家用掃地機器人及商用送餐機器人等服務機
    發表于 07-05 06:41

    基于視覺slam自動駕駛

    基于視覺slam自動駕駛,這是我們測試的視頻《基于slam算法的智能機器人》調研分析報告項目背景分析機器人曾經是科幻電影中的形象,可目前已經漸漸走入我們的生活。機器人技術以包含機械、
    發表于 08-09 09:37

    激光SLAM視覺VSLAM的分析比較

    什么是激光SLAM視覺VSLAM又是什么?激光SLAM視覺VSLAM有哪些不同之處?
    發表于 11-10 07:16

    機器人SLAM實現

    針對復雜環境下機器人的同時定位與地圖構建( SLAM)存在實時性與魯棒性下降等問題,將一種基于ORB特征點的關鍵幀閉環檢測匹配算法應用到定位與地圖構建巾。研究并分析了特征點提取與描述符建立、幀間配準
    發表于 03-26 10:57 ?6次下載

    ORB-SLAM3ORB-SLAM2相比有哪些優勢呢?

    自主導航是機器人基礎性和關鍵性技術,是機器人實現其他更高級任務的前提。視覺 SLAM (Simultaneous Localization And Mapping) 利用視覺傳感器獲取環境圖像信息,基于多視圖幾何
    的頭像 發表于 01-16 10:58 ?2968次閱讀

    OV2SLAM(高速視覺slam)簡析

    視覺里程計最近幾年越來越受到學術界以及工業界的認可,以ORB和VINS為代表的視覺SLAM已經可以滿足絕大多數場景,而OV2SLAM在其他V
    的頭像 發表于 03-21 17:16 ?1600次閱讀

    ORB-SLAM3整體流程詳解

    ORB-SLAM2相比,ORB-SLAM3在處理大視差和長時間未觀測到的場景時效果更好。它還提供了更準確的幀間運動估計和更快的處理速度。
    的頭像 發表于 06-19 09:28 ?3451次閱讀
    <b class='flag-5'>ORB-SLAM3</b>整體流程詳解

    視覺SLAM開源方案匯總 視覺SLAM設備選型

    SLAM至今已歷經三十多年的研究,這里給出經典視覺SLAM框架,這個框架本身及其包含的算法已經基本定型,并且已經在許多視覺程序庫和機器人程序
    發表于 08-10 14:15 ?1060次閱讀
    <b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b><b class='flag-5'>開源</b>方案匯總 <b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>設備選型

    視覺SLAM是什么?視覺SLAM的工作原理 視覺SLAM框架解讀

    近年來,SLAM技術取得了驚人的發展,領先一步的激光SLAM已成熟的應用于各大場景中,視覺SLAM雖在落地應用上不及激光SLAM,但也是目前
    的頭像 發表于 09-05 09:31 ?3963次閱讀
    <b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>是什么?<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>的工作原理 <b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>框架解讀

    基于英特爾開發套件使用ORB-SLAM3實現無人機實時定位

    工業建模對于精度有著高要求,這意味著無人機的 SLAM 算法要提供可靠的實時位姿估計。ORB-SLAM3 是目前融合雙目視覺與 IMU 的優秀算法
    的頭像 發表于 09-18 10:12 ?1316次閱讀
    基于英特爾開發套件使用<b class='flag-5'>ORB-SLAM3</b>實現無人機實時定位

    工程實踐中VINS與ORB-SLAM的優劣分析

    ORB-SLAM是一種基于特征的單目視覺SLAM系統,廣泛用于實時三維地圖構建和機器人定位。該系統使用ORB特征進行高效的視覺識別和地圖重建
    的頭像 發表于 04-08 10:17 ?2816次閱讀
    工程實踐中VINS與<b class='flag-5'>ORB-SLAM</b>的優劣分析
    主站蜘蛛池模板: yy4408午夜场理论片| 最近2019中文字幕免费| 中文字幕无码一区二区免费| 不卡的在线AV网站| 国产小视频国产精品| 美女挑战50厘米长的黑人 | 欧美Av无码高清在线| 四虎影院网红美女| 最新国产麻豆精品| 国产美熟女乱又伦AV| 嫩小幼处在线| 野花影院手机在线观看| 纯肉高H啪短文合集| 久热人人综合人人九九精品视频| 日本妈妈xxxx| 最新黄色在线| 黄色三级三级免费看| 三八成人网| qvod快播在线观看| 日日碰狠狠躁久久躁77777| 91精品国产色综合久久| 黄色三级网址| 午夜福利体检| 成 人 网 站毛片| 欧美精品专区第1页| 一区精品在线| 婚后被调教当众高潮H喷水| 无码国产色欲XXXX视频| 成人免费网址在线| 皮皮色狼网| georgielyall装修工| 嫩小幼处在线| AV无码九九久久| 欧美高清video mr.sexo| 最近中文字幕高清中文| 久久久91精品国产一区二区 | 国产av在在免费线观看美女| 琪琪see色原网站在线观看| WWW亚洲精品久久久乳| 奇米网一区二区三区在线观看| FREECHINESE东北群交|