SLAM目前在各領域都已經有很多的應用,但為什么大部分已經落地的都用的還是最傳統的方法,比如目前最主流的ORB-SLAM,即使到ORB3也依舊用的是傳統的FAST和BRIEF方法來檢測和提取特征點,而不用CV領域里早已經普遍的神經網絡如VGG等來提取特征點。當然最新的很多語義SLAM論文里都已經用到了如GCN等神經網絡提取特征,但為什么目前落地和應用的大部分還用的是傳統的方法?提取速度和所需算力應該不會有太大差異才是?*
作者:心態炸裂男孩
談一下個人看法,可能不對。
首先slam是一個偏工程化的應用技術。因此算力成本是一個非常重要的因素。傳統的特征提取速度快,算力成本低,可以在cpu運行。如果利用深度學習特征提取,算力包括gpu,深度學習特征帶來的額外CPU和內存成本。問題是傳統方法特征提取已經能滿足大部分場景了。
深度學習提取的特征就一定好?顯然不是的。因為數據集的原因,利用深度學習訓練出的特征子適用性并不一定好。貌似網上有一篇論文,利用orbslam框架,對比了orb和superpoint的效果。發現有幾組superpoint效果確實好,但是有幾個序列視頻利用superpoint的slam直接track lost.這就表現的不好了。
因此在大多數場景下,傳統特征可以解決。利用深度學習特征就顯得畫蛇添足了,沒有必要。當然在某些場景利用傳統特征就不可行。如光照變化劇烈,相機運動劇烈等場景。在long term slam這個話題下,深度學習特征效果明顯。
slam方法不僅僅是為了定位,個人覺得slam終極目的是復用地圖。顯然長時間定位這塊大部分人的目光都是投入到深度學習特征上,去superpoints.r2d2特征。畢竟長時間定位會有時間,天氣,光照,動態物體變化,傳統方法根本就不能解決。而深度學習特征卻可以保證長時間定位的準確度。
所以個人看法,雖然深度學習特征雖然用的不多。但未來基于深度學習特征slam會越來越多。
作者:余世杰
其他答主都說了好多了,算力問題以及提升率啥的。
我個人是覺得還有個原因是,特征匹配在視覺SLAM中的重要性沒有到夸張的地步,在傳統算法情況下,有一定的錯誤匹配也能得到較好的結果,前端重要的同時,后端更加重要。
那么多SLAM算法,前端都大同小異,而且幀之間的位姿變換好多都是先用勻速模型做初始值,去適配優化,實在不行再進行特征點的匹配求位姿。真正區別還是關鍵幀的處理,強調運動的整體性,而不是兩張圖之間單純的匹配精度。
這是我個人的觀點,有不對的還請大佬指正。
--以上來自2020年9月,回過頭2023年5月自己使用測試過之后發現,目前的特征提取依賴性并不強,傳統的也能做得比較好,反而神經網絡的提取穩定性和重復性可能不夠強。
但是對描述子的計算和匹配上,還是有一定參考性,更實用,感興趣的朋友可以自己也測試看看
作者:劉國慶
談談我的看法吧,不一定正確,僅供參考:
1、算力和功耗問題,背后也是成本問題,也是最致命的問題。即使是TX2這類面向嵌入式的GPU,耗電和成本也非常可觀……FPGA硬件實現網絡,或者做訂制ASIC可以同時解決算力和功耗問題,不過貌似學術界貌似認為這些不是它們應該解決的問題,而且結果復現嚴重依賴硬件,不太爽。算力相對受限這一點也是我個人做東西沒有用基于學習的特征的原因。
另對于題主所言“提取速度和所需算力不會有太大差異”,請問是使用哪一種特征提取網絡,又是和哪一種傳統特征提取算法,在何種計算平臺進行的對比測試所得到的結論呢?我沒做過詳細的耗時和算力需求對比,但是我還是對該結論有點懷疑。
2、夠用就好,盲目追求高精度在落地應用方面是不可取的。好比Nvidia RTX 20系顯卡,2080Ti價格比2080S提高了接近一倍,性能提升只有20%~30%,對于成本敏感的落地應用而言,你會做這個交易嗎?何況2080s算力本身也不算差。
3、應該有正在推進中的落地應用,只是涉及到商業機密,你我不知道罷了。
原文鏈接:https://www.zhihu.com/question/419264201/answer/1467534631
-
神經網絡
+關注
關注
42文章
4771瀏覽量
100720 -
SLAM
+關注
關注
23文章
423瀏覽量
31824 -
深度學習
+關注
關注
73文章
5500瀏覽量
121117
原文標題:為什么目前落地的主流SLAM技術很少用神經網絡進行特征提取?
文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論