色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

什么是SLAM?視覺SLAM怎么實現?

新機器視覺 ? 來源:一點一的N次方 ? 2023-08-21 10:02 ? 次閱讀

上周的組會上,我給研一的萌新們講解什么是SLAM,為了能讓他們在沒有任何基礎的情況下大致聽懂,PPT只能多圖少字沒公式,這里我就把上周的組會匯報總結一下。

這次匯報的題目我定為“視覺SLAM:一直在入門,從未能精通”,那是因為視覺SLAM真的是博大精深,就像C++一樣,連說入門都底氣不足,只能說了解,更不敢說精通。

從五月份開始學《視覺SLAM十四講》算起,我已經正式接觸SLAM四個多月了,到現在還是很懵懂的,當然也有可能是自己的吸收能力還不夠強吧!

下面就以我這段時間的積累斗膽簡單談談對視覺SLAM的認識,如有不當,還請指教。

1 什么是SLAM?

SLAM的英文全名叫做Simultaneous Localization and Mapping,中文名是同時定位與建圖,從字面上來看就是同時解決定位和地圖構建問題。

定位主要是解決“在什么地方”的問題,比如你目前在哪國哪省哪市哪區哪路哪棟幾號幾樓哪個房間哪個角落。

建圖主要是解決“周圍環境是什么樣”的問題,你可以回憶一下百度高德地圖,甚至一些景點的手繪地圖。

下面就以掃地機器人作為例子再稍微詳細地講解一下。

對于掃地機器人來說,定位就是要知道自己在房間里的具體位置,建圖就是知道整個房間的地面結構信息,而有了這些信息才能做路徑規劃,以最短的距離到達目的地。

下面右圖就是掃地機器人在家里移動時的定位和建圖,藍點是它自己目前所在的位置,它已經把房間能抵達的地方都構建出來了。

1d65fc80-3e9f-11ee-ac96-dac502259ad0.jpg

總的來說,機器人從未知環境未知地點出發,通過傳感器(這里主要說的是相機)觀測環境獲取信息,利用相機的信息估算機器人的位置、姿態和運動軌跡,并且根據位姿構建地圖,從而實現同時定位和建圖。

利用不同的傳感器實現SLAM的方法不同,目前主流的傳感器有激光雷達(LiDAR SLAM)、相機(Visual SLAM)和慣性測量單元(Visual-inertial SLAM)。

接下來我們介紹的是視覺SLAM的方法,也就是只采用相機作為傳感器的SLAM。

當然,用相機作為傳感器的話,還是有不同的方法,因為相機也有不同的種類,常見的有單目相機、雙目相機和RGB-D相機。

2 為什么用SLAM?

可能你會有疑問了,為什么不用GPS定位?為什么不用現成的地圖?下面就來一一解答。

對于定位來說,我要反問一下,沒有GPS怎么破?比如在一些建筑物內、隧道或者偏遠地方,我們是無法獲取GPS的。這種情況下機器人或者無人車是不是得自己定位了。

再者,GPS的定位精度不夠高,最多也就達到幾米的精度,要是在室內定位的話,一套房就這么巴掌大的地方,幾米的誤差也許就讓你的掃地機器人誤以為是在你鄰居家打掃了。。

對于建圖來說,我還是要反問一下,沒有現成地圖怎么破?比如你的家、公司或者工廠,我們很難直接拿到現成的地圖,家家戶戶的圖紙數據量得多大,而且每一戶裝修也不一樣,家私的擺放位置更是無從得知。

而且,不同場景需求下的地圖也是不一樣的,后面我們會提到有各式各樣的地圖,不存在解決各種問題的地圖。

所以,在沒有GPS和現成地圖的場景下,同時考慮到定位的精度和地圖的需求,SLAM對于機器人來說簡直是雪中送炭。

3 視覺SLAM怎么實現?

下面就用高博《視覺SLAM十四講》里的框圖來講解視覺SLAM大致是怎么實現的。

首先通過傳感器(這里利用的是相機)獲取環境中的數據信息,也就是一幀一幀的圖像,在前端視覺里程計中通過這些圖像信息計算出相機的位置(準確來說是位姿,后面會細說)。

同時進行閉環檢測,判斷機器人是否到達先前經過的地方。然后利用后端非線性優化,對前端得出的相機位姿進行優化,得到全局最優的狀態。

最后根據每一時刻的相機位姿和空間中目標的信息,根據需求建立相應的地圖。

接下來就來詳細說說其中每一個模塊都是怎么操作的。

4 前端視覺里程計

視覺里程計的英文名稱是Visual Odometry,簡稱VO,主要是研究怎么通過相鄰兩幀圖像計算兩幀之間相機的運動。

這里面涉及了不少知識,其中包括圖像處理中的特征提取和特征匹配、三維視覺中的剛體運動和對極幾何、數學中的李群李代數等等。。

不要慌!天空飄來五個字,那都不是事!

在視覺SLAM中,主流的方法根據前端的不同分為特征點法和直接法,下面介紹的是利用特征點法的視覺SLAM。

對于我們人眼直觀判斷來說,從前一張圖像到后一張圖像應該是往右上的方向稍微旋轉了一下。

但是,對于機器人來說它可沒那么“直觀”。

首先它要對這兩張圖像進行特征提取,也就是找到圖像中特別的地方,比如角點、邊緣點等。然后,對這些特征點在兩張圖像之間進行特征匹配。

把匹配對中誤匹配的篩選掉之后,就能得到較為準確的匹配了。

有了這些匹配點對之后,就能利用它們瘋狂計算相機的位姿了。對了,這里得講講位姿究竟是什么東西?

位姿其實就是位置和姿態的合稱,位置也就是在三維空間中的坐標(x,y,z),而姿態是在三維空間中的旋轉(r,p,y),因此位姿總共包含6個自由度。

還沒理解?來做做頭部健康運動就明白了,左右歪頭,上下點頭,左右搖頭。怎么樣,既能預防頸椎病,還能理解三維旋轉。

左右歪頭是滾轉角roll,上下點頭是俯仰角pitch,左右搖頭則是偏航角yaw。

既然要表示坐標,那我們總得知道坐標系是什么吧?在相機運動過程中,有四個常見的坐標系需要我們了解。

分別是世界坐標系、相機坐標系、歸一化坐標系還有像素坐標系。下面這張圖讓人一目了然。

1ddcfd80-3e9f-11ee-ac96-dac502259ad0.png

世界坐標系比較好理解,就是我們身處的整個三維空間的坐標系,坐標原點由我們自己定,可以是某一張桌子的邊角,也可以是相機第一時刻的位置。

相機坐標系是以相機光心為坐標原點,光軸為z軸的坐標系。

歸一化坐標系就是原點在相機坐標系下(0,0,1)處的二維平面坐標系。

像素坐標系是以圖像左上角的像素為原點,以一個像素為最小單元的離散坐標系。

既然有不同的坐標,當知道點在一個坐標系下的坐標時,如何求得該點在其他坐標系下的坐標呢?

舉個栗子,我們能獲取到的是圖像的像素信息,通過轉換(相機投影模型)之后能得到該像素(特征點)在相機坐標系中的坐標位置。

但是在構建地圖的時候我們得知道這個像素(特征點)在整個三維空間中的哪個位置呀,也就是相機坐標系中的坐標怎么轉化到世界坐標系下。

這就涉及到了三維空間剛體運動中坐標系的變換。直接上圖就曉得了。

1df3fbd4-3e9f-11ee-ac96-dac502259ad0.png

上圖展示的是世界坐標系轉化為相機坐標系的過程,當然方法都是一樣的。

這里獻上整篇文章唯一的一條數學公式:

1e06408c-3e9f-11ee-ac96-dac502259ad0.png

pc是點p在相機坐標系下的坐標,pw是世界坐標,Rcw是描述從世界坐標系轉化為相機坐標系旋轉的旋轉矩陣,tcw是描述從世界坐標系轉化相機坐標系平移的平移向量。

可以看出,坐標系的轉換我們可以用一個旋轉矩陣R(3*3)來表示旋轉,也就是決定姿態,還有一個平移向量t(3*1)來表示平移,也就是決定位置。

相機的位姿其實就是指相機在世界坐標系下的位置坐標和旋轉姿態,位姿估計就是根據兩幀之間匹配點的關系計算當前時刻相機的位姿。

1e1b14e4-3e9f-11ee-ac96-dac502259ad0.png

假如我們將第一幀時刻的相機作為世界坐標系原點,那么通過第1、2幀圖像的匹配點就可以計算從第2幀相機坐標系到第1幀相機坐標系(世界坐標系)的旋轉矩陣R12和平移向量t12。

然后再通過第2、3幀圖像的匹配點計算R23和t23,利用和R12相乘再加上t12就能求得第3幀時刻相機在世界坐標系下的位姿。依此類推。。。

當然,根據不同情況可以用不同的方法求R和t:

2D-2D:對極約束,在單目相機中,我們只能獲取二維圖像,利用兩幀圖像的匹配點關系通過對極幾何的關系可以求出一個叫本質矩陣E的東西,再求得R和t。

3D-3D:ICP(迭代最近法),在雙目和RGB-D相機中,我們可以直接獲取圖像的深度信息,也就是說特征點在相機坐標系下的z我們是知道的,這時候其實就相當于直接求兩個相機坐標系的轉換R和t。

3D-2D:PnP,當我們知道一組點在世界坐標系下的坐標和它們在相機中的投影位置時,可以利用這種方法直接求得當前時刻的相機位姿。

1e314796-3e9f-11ee-ac96-dac502259ad0.png

5 后端優化

視覺里程計講得很多了,但是從視覺里程計中計算得到的相機位姿會有一定的誤差,一次兩次還好,一旦多了累積誤差可是很嚴重的。

這時就需要后端對前端的結果進行優化,從而得到最優的位姿。

和前端分為兩種主流方法一樣,后端也有兩種解決方法:

濾波器方法,以擴展卡爾曼濾波(EKF)為代表,認為某一時刻的狀態只和上一時刻的狀態有關。

非線性優化方法,以高斯牛頓法和列文伯格-馬夸爾特法為代表,認為某一時刻的狀態和之前所有狀態有關。

我們主要用的是非線性優化方法,對相機位姿和路標點構建最小二乘問題,并利用圖優化的方法求解,也就是常說的Bundle Adjustment。

當然,因為BA處理的數據量很大,在整個SLAM過程中還會采取別的方法控制優化的數據,比如滑動窗口法。

簡單地說,就是在保持處理的幀數不變的情況下,將舊的數據刪除,加入新的數據。

假設每次只優化10幀,那么當接收到第11幀圖像時,移除第1幀圖像的數據,并將第11幀圖像加入優化問題中。

6回環檢測

回環檢測(Loop Closure)是一個挺特殊的模塊,主要讓機器人能識別出曾經去過的地方。

隨著時間推進,SLAM的誤差會不斷地累積,時間久了后,使得軌跡出現嚴重的漂移。

如果有了回環檢測,機器人就會檢測到自己曾經到過這個地方,利用這個信息和歷史數據比對,從而修正累積誤差,得到全局一致的狀態估計。

為什么說回環檢測挺特殊的呢?因為這個模塊乍一看還挺像機器學習甚至是目前深度神經網絡應用的領域。

判斷“兩張圖像是否為同一個地方”會出現4種結果:

事實是,機器人判斷為是;

事實是,機器人判斷為否;

事實否,機器人判斷為是;

事實否,機器人判斷為否。

最好的結果當然是第1種和第4種,因為機器人的判斷和事實符合,可現實總是不完美的。

而衡量回環檢測效果的指標也有兩種——準確率(Precision)和召回率(Recall)。

用西瓜書里的話解釋,準確率關心的是“挑出的西瓜中有多少比例是好瓜”,召回率關心的是“所有好瓜中有多少比例被挑了出來”。

西瓜書都搬出來了,這還不是機器學習問題嗎?

當然,在SLAM中還是更注重召回率的,希望更多“現實是回環”被機器人“判斷為回環”。

傳統主流的視覺SLAM中回環檢測采用的是詞袋模型,當然按照目前深度學習的勢頭來說,也不妨試試神經網絡,但是實時性就得另當別論了。

而且,回環檢測還可以用來進行重定位,解決跟蹤失敗的問題,保證在跟蹤失敗的情況下可以快速重新得到當前的精確位姿。

7地圖構建

最后一個模塊是地圖構建,前面也說過了,我們根據不同的傳感器類型和應用需求可以建立不同的地圖。

還是用高博《視覺SLAM十四講》中的圖,簡潔明了地說明了不同應用場景對應不同類型的地圖。

如果只是單純的定位,只需要知道機器人在什么位置即可,這時候稀疏路標地圖就足夠了。

在導航、避障的情況下,機器人必須知道什么地方可以走而什么地方不能走,這才能規劃出運動路徑。于是就需要稠密地圖,稀疏路標點的地圖壓根就不能判斷那是什么東西。

重建也很明了,既然是重建,那就得是帶有輪廓紋理等詳細信息的稠密地圖了。

如果是人機交互的話呢,機器人得知道什么是桌子、杯子在哪里等語義信息,這時候光是知道物體什么模樣可不行了,得上語義地圖才是。

我們在做導航時,有一種常用的地圖,那就是八叉樹地圖(Octomap)。

1ece3c86-3e9f-11ee-ac96-dac502259ad0.png

它是把三維空間分為許多方塊,方塊再分為八個同樣大小的小方塊,小方塊再繼續往下分。。整個三維空間就用八叉樹數據結構來表示。

當方塊中所有子方塊都被占據或者都沒被占據的時候,這個方塊或者說八叉樹中的這個節點就沒必要往下展開了。

相對與點云地圖來說,這樣會大大減少了地圖的存儲空間!下面就是一張八叉樹地圖。

1ee2e898-3e9f-11ee-ac96-dac502259ad0.jpg

8 結語

近兩年,SLAM有要火的趨勢,但是這也不妨礙它毫不平易近人的特質。

審核編輯:彭菁

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2552

    文章

    51217

    瀏覽量

    754606
  • 機器人
    +關注

    關注

    211

    文章

    28501

    瀏覽量

    207473
  • gps
    gps
    +關注

    關注

    22

    文章

    2898

    瀏覽量

    166333
  • SLAM
    +關注

    關注

    23

    文章

    425

    瀏覽量

    31861
  • 激光雷達
    +關注

    關注

    968

    文章

    3988

    瀏覽量

    190072

原文標題:CV領域的絕境長城,視覺SLAM:一直在入門,從未能精通

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    SLAM技術的應用及發展現狀

    也將SLAM分為激光SLAM視覺SLAM。激光SLAM視覺
    發表于 12-06 10:25

    視覺SLAM特征點法與直接法對比分析

    視覺SLAM——特征點法與直接法對比以及主流開源方案對比 ORB LSD SVO DSO
    發表于 06-02 16:56

    視覺SLAM筆記總結

    【總結】視覺SLAM筆記整理
    發表于 07-17 14:05

    激光SLAM視覺SLAM有什么區別?

    機器人定位導航中,目前主要涉及到激光SLAM視覺SLAM,激光SLAM在理論、技術和產品落地上都較為成熟,因而成為現下最為主流的定位導航方式,在家用掃地機器人及商用送餐機器人等服務機
    發表于 07-05 06:41

    基于視覺slam自動駕駛

    基于視覺slam自動駕駛,這是我們測試的視頻《基于slam算法的智能機器人》調研分析報告項目背景分析機器人曾經是科幻電影中的形象,可目前已經漸漸走入我們的生活。機器人技術以包含機械、電子、自動控制
    發表于 08-09 09:37

    激光SLAM視覺VSLAM的分析比較

    什么是激光SLAM視覺VSLAM又是什么?激光SLAM視覺VSLAM有哪些不同之處?
    發表于 11-10 07:16

    單目視覺SLAM仿真系統的設計與實現

    實現單目視覺同時定位與建圖(SLAM)仿真系統,描述其設計過程。該系統工作性能良好,其SLAM算法可擴展性強,可以精確逼近真實單目視覺
    發表于 04-15 08:50 ?82次下載

    視覺SLAM的技術資料總結

    隨著傳感器種類和安裝方式的不同,SLAM實現方式和難度會有很大差異。按傳感器來分,SLAM主要分為激光、視覺兩大類。其中,激光SLAM研究
    的頭像 發表于 05-12 10:31 ?5391次閱讀

    科普|視覺SLAM是什么——三種視覺SLAM方案

    ,就相當于人類失去了雙眼一樣。 一、什么是視覺SLAM? SLAM的英文全稱是Simultaneous Localization and Mapping,中文稱作「即時定位與地圖創建」,而視覺
    的頭像 發表于 04-17 09:21 ?5.6w次閱讀

    視覺SLAM與激光SLAM有什么區別?

    在業內,視覺SLAM與激光SLAM誰更勝一籌,誰將成為未來主流趨勢這一問題,成為大家關注的熱點,不同的人也有不同的看法及見解,以下將從成本、應用場景、地圖精度、易用性幾個方面來進行詳細闡述。
    的頭像 發表于 08-28 14:53 ?1.8w次閱讀
    <b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>與激光<b class='flag-5'>SLAM</b>有什么區別?

    機器人主流定位技術:激光SLAM視覺SLAM誰更勝一籌

    定位技術是機器人實現自主定位導航的最基本環節,是機器人在二維工作環境中相對于全局坐標的位置及其本身的姿態。目前SLAM (Simultaneous Localization and Mapping即時定位與地圖構建)是業內主流的定位技術,有激光
    的頭像 發表于 12-26 10:59 ?1761次閱讀

    基于深度學習的視覺SLAM綜述

    SLAM本質上是一個狀態估計問題,根據傳感器做劃分,主要是激光、視覺兩大類。激光SLAM的研究在理論和工程上都比較成熟,現有的很多行業已經開始使用激光SLAM完成工業工作;而
    的頭像 發表于 12-02 15:00 ?2056次閱讀

    OV2SLAM(高速視覺slam)簡析

    視覺里程計最近幾年越來越受到學術界以及工業界的認可,以ORB和VINS為代表的視覺SLAM已經可以滿足絕大多數場景,而OV2SLAM在其他VSLAM中脫穎而出,其實時性以及具體的回環性
    的頭像 發表于 03-21 17:16 ?1635次閱讀

    視覺SLAM開源方案匯總 視覺SLAM設備選型

    SLAM至今已歷經三十多年的研究,這里給出經典視覺SLAM框架,這個框架本身及其包含的算法已經基本定型,并且已經在許多視覺程序庫和機器人程序庫中提供。
    發表于 08-10 14:15 ?1081次閱讀
    <b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>開源方案匯總 <b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>設備選型

    視覺SLAM是什么?視覺SLAM的工作原理 視覺SLAM框架解讀

    近年來,SLAM技術取得了驚人的發展,領先一步的激光SLAM已成熟的應用于各大場景中,視覺SLAM雖在落地應用上不及激光SLAM,但也是目前
    的頭像 發表于 09-05 09:31 ?4024次閱讀
    <b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>是什么?<b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>的工作原理 <b class='flag-5'>視覺</b><b class='flag-5'>SLAM</b>框架解讀
    主站蜘蛛池模板: 伊人精品影院| 国产成人精品免费视频大全办公室| 国产伦精品一区二区三区精品| 微福利92合集| 精品亚洲大全| bl高h文合集| 无码国产色欲XXXX视频| 含羞草在线| 99国产精品久久人妻无码| 日日摸夜夜嗷嗷叫日日拍| 国产亚洲制服免视频| 24小时日本在线观看片| 上原结衣快播| 久久免费高清| 高H黄暴NP辣H一女多男| 野花高清影视免费观看| 欧美日韩另类在线专区| 国产亚洲精品首页在线播放| 2019夜夜| 午夜精品久久久内射近拍高清 | 色屁屁影院| 久久99AV无色码人妻蜜| QVOD在线播放| 亚洲人成影院在线播放| 青青草国产精品久久| 精品国产乱码久久久久久上海公司 | 日本伦子欲| 精品无码国产自产在线观看水浒传 | 日韩一区二区天海翼| 久久午夜宫电影网| 国产精品xxxav免费视频| 97在线播放| 亚洲精品视频在线观看视频| 强开少妇嫩苞又嫩又紧九色| 久久成人无码国产免费播放| 芳草地社区在线视频| 8x华人免费视频| 亚洲男人97色综合久久久| 色99久久久久高潮综合影院| 男人插曲女人的视频| 久久99蜜桃精品麻豆|