色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

LSD中的激光點云/單目3D目標(biāo)檢測和多目標(biāo)跟蹤算法

新機器視覺 ? 來源:新機器視覺 ? 2023-05-19 09:37 ? 次閱讀

LSD (LiDAR SLAM & Detection) 是一個開源的面向自動駕駛/機器人的環(huán)境感知算法框架,能夠完成數(shù)據(jù)采集回放、多傳感器標(biāo)定、SLAM建圖定位和障礙物檢測等多種感知任務(wù)。

本文將詳細講解LSD中的激光點云/單目3D目標(biāo)檢測和多目標(biāo)跟蹤算法。

LSD(LiDAR SLAM & Detection) github.com/w111liang222/lidar-slam-detection

3D目標(biāo)檢測跟蹤

3D目標(biāo)檢測

目標(biāo)檢測是自動駕駛/機器人環(huán)境感知系統(tǒng)中的一項基本任務(wù),常見的目標(biāo)檢測算法可以分為兩大類:

基于圖像的2D目標(biāo)檢測,輸出圖像坐標(biāo)下的2D Box(x, y, l, w, c),由于缺少目標(biāo)的深度和朝向信息,難以用于機器人的規(guī)劃和控制

基于激光點云/相機的3D目標(biāo)檢測算法,輸出以自車為原點坐標(biāo)系下的3D Box (x, y, z, l, w, h, yaw, c)

LSD采用了改進的PointPillar和RTM3D算法,能夠?qū)崿F(xiàn)激光點云/單目相機的3D目標(biāo)檢測功能,在推理時轉(zhuǎn)換成TensorRT FP16引擎運算,支持在x86 PC, Xavier NX, Xavier AGX和Orin平臺上實時運行。相關(guān)實現(xiàn)代碼位于sensor_inference目錄。整體框架如下圖所示:

79476278-f5b6-11ed-90ce-dac502259ad0.png框架流程圖

點云3D目標(biāo)檢測

自2017年以來,點云3D目標(biāo)檢測涌現(xiàn)了很多經(jīng)典算法,下圖是按時間排序的檢測算法:

7979c542-f5b6-11ed-90ce-dac502259ad0.png算法一覽

跟圖像2D目標(biāo)檢測算法類似,3D目標(biāo)檢測算法也可以分類為"單階段"/"多階段"、"Anchor base"/"Anchor free"、"Point base"/"Voxel base"等,其中APTIV提出的PointPillar由于其部署簡單、計算效率和檢測精度較高等優(yōu)勢,在實際的工程項目中應(yīng)用廣泛。

LSD基于原版PointPillar網(wǎng)絡(luò)結(jié)構(gòu),對模型結(jié)構(gòu)進行了優(yōu)化:

在PillarVFE結(jié)構(gòu)中刪除了xyz的均值特征,保留了每個點的x,y,z,i及其voxel中心offset特征

SSD backbone替換為基于CSPNet結(jié)構(gòu)的backbone

Anchor based檢測頭替換為CenterPoint網(wǎng)絡(luò)的Anchor free檢測頭,并添加了IOU aware分支

Voxelize

由于PointPillar網(wǎng)絡(luò)的輸入是Voxel(z軸方向只有1維,也叫作Pillar),因此我們需要將原始點云[n, 4]體素化,其中n為點云個數(shù)和每個點的特征(x,y,z,intensity)。在LSD中,我們設(shè)置每個voxel的尺寸為[0.32, 0.32, 6],單位為米,且每個voxel最多包含32個點,通過將點云投影到其對應(yīng)的voxel中,可以得到:

voxel特征,維度為[m, 32, 4]

voxel坐標(biāo),維度為[m, 3]

每個voxel中點的個數(shù),維度為[1, m]

每個voxel中點的mask,維度為[m, 32]

其中m為計算得到的voxel個數(shù),上述4個變量作為后續(xù)神經(jīng)網(wǎng)絡(luò)的輸入。

Pillar VFE

Pillar VFE結(jié)構(gòu)主要是對每個voxel中的點特征進行提取(由7維特征[x, y, z, i, xp, yp, zp]經(jīng)過卷積得到64維),并根據(jù)每個voxel的坐標(biāo)投影到2D BEV網(wǎng)格得到[64,448,448]大小的特征(最大檢測范圍設(shè)置為71.68m)

79b01cf0-f5b6-11ed-90ce-dac502259ad0.pngONNX格式的Pillar VFE

CSP Backbone

PointPillar原版采用的是SSD backbone,其結(jié)構(gòu)較為簡單、參數(shù)量小,在實際測試時發(fā)現(xiàn)當(dāng)訓(xùn)練數(shù)據(jù)量增大后檢測精度提升幅度較小,因此,我們參考了YOLO V4的backbone,其主要由CSP Net基礎(chǔ)block組成,通過權(quán)衡檢測精度和實時性,我們構(gòu)建了4個下采樣block和3個上采樣block網(wǎng)絡(luò)來對多尺度特征進行提取和融合,最后輸出[48,224,224]和[192, 56, 56]兩種尺度特征,詳細的網(wǎng)絡(luò)結(jié)構(gòu)可以參見CSPDarknet53Small.py。

79d0fdd0-f5b6-11ed-90ce-dac502259ad0.png參考的YOLOV4網(wǎng)絡(luò)結(jié)構(gòu)

CenterPoint Head

LSD采用了多檢測頭結(jié)構(gòu),針對backbone輸出的2個尺度特征,分別連接了兩個CenterPoint檢測頭,相比于原版的Anchor based檢測頭,Anchor free在檢測小目標(biāo)時精度更高。另外,我們還參考了CIA-SSD網(wǎng)絡(luò)模型,添加了IOU-Aware預(yù)測分支,進一步提高了檢測精度。

7a0eace8-f5b6-11ed-90ce-dac502259ad0.pngCenterPoint網(wǎng)絡(luò)

單目3D目標(biāo)檢測

大多數(shù)激光雷達由于發(fā)射結(jié)構(gòu)的原因,其點云具有近處密集,遠處稀疏的特點,從而導(dǎo)致激光雷達在檢測距離較遠的目標(biāo)時精度較低,而圖像在距離較遠時相比激光雷達更容易分辨目標(biāo),因此LSD采用了單目3D目標(biāo)檢測算法來提高遠距離目標(biāo)的檢測精度以適應(yīng)高速場景。

RTM3D

RTM3D (Real-time Monocular 3D Detection from Object Keypoints for Autonomous Driving)是一個單目3D目標(biāo)檢測網(wǎng)絡(luò),其主要思想是通過網(wǎng)絡(luò)預(yù)測目標(biāo)框的8個頂點、質(zhì)心、深度和朝向信息,并求解偽逆方程得到目標(biāo)的3DBox。

7a417560-f5b6-11ed-90ce-dac502259ad0.pngRTM3D

在LSD中,我們對RTM3D的結(jié)構(gòu)做了部分微調(diào):

由ImageNet預(yù)訓(xùn)練的Resnet18 backbone替換為Darknet53

檢測頭增加heatmap輸出,用于后續(xù)的目標(biāo)融合。

模型訓(xùn)練和推理

模型訓(xùn)練基于OpenPCDet框架實現(xiàn),將公開的WOD、Nuscences、Lyft、Panda Set和DeepRoute等數(shù)據(jù)集進行了合并,并且將不同數(shù)據(jù)集的各個類別重新分類為“車輛”、“行人”、“騎行車”和“三角錐”4種類別。服務(wù)器采用4張2080Ti顯卡訓(xùn)練50個epoch。

在模型推理階段,我們將Pytorch模型導(dǎo)出成ONNX文件,并分別在Jetpack5.0.2 Xavier NX、 AGX、 Orin平臺上生成了TensorRT FP16引擎進行推理(單目3D模型則運行在DLA上),在Xavier NX平臺上運行耗時約80ms,能夠滿足實時性要求。

ONNX模型文件可以從這里獲取。

后融合

數(shù)據(jù)融合用于融合多傳感器數(shù)據(jù)來提高檢測精度,按實施階段可以分為前融合和后融合,前融合通常處理傳感器的原始數(shù)據(jù),而后融合則處理各傳感器分別計算后的目標(biāo)數(shù)據(jù)。在LSD中,我們采用了后融合的方式,將激光點云輸出的3D目標(biāo)列表和單目視覺輸出的3D目標(biāo)列表融合為一個目標(biāo)列表并輸出給目標(biāo)跟蹤模塊。我們實現(xiàn)了一個相對簡單的基于規(guī)則的融合算法:

將激光點云輸出的3DBox根據(jù)激光-相機外參投影到圖像坐標(biāo)系下得到2DBox,計算與視覺目標(biāo)的2D IOU

利用匈牙利算法進行匹配,得到matched、unmatch_camera和unmatch_lidar三個目標(biāo)列表

針對matched列表,我們將激光點云輸出的3DBox直接作為輸出,對于confidence屬性求激光和相機目標(biāo)的均值加上0.2 * IOU

針對unmatch_lidar列表,利用RTM3D輸出的heat map對confidence屬性求均值

合并matched, unmatch_camera和unmatch_lidar得到最終的目標(biāo)列表輸出

多目標(biāo)跟蹤

3D目標(biāo)檢測和融合算法處理的是傳感器的單幀數(shù)據(jù),單幀檢測難以獲取目標(biāo)的運動信息,并且容易出現(xiàn)檢測結(jié)果跳變等問題,在時間序列上對目標(biāo)進行跟蹤,可以估算出目標(biāo)的運動速度、角速度,同時能夠輸出較為穩(wěn)定的目標(biāo)列表給下游規(guī)劃控制模塊。目標(biāo)跟蹤算法通常可以分解成兩個步驟:

根據(jù)相似度對相鄰幀目標(biāo)進行關(guān)聯(lián)匹配

對目標(biāo)進行觀測并估計最優(yōu)狀態(tài)

LSD采用了傳統(tǒng)的基于規(guī)則的目標(biāo)匹配和狀態(tài)估計算法,算法基于AB3DMOT(A Baseline for 3D Multi-Object Tracking and New Evaluation Metrics)實現(xiàn),并在其基礎(chǔ)上進行了優(yōu)化,能夠輸出更穩(wěn)定的目標(biāo)列表。

7a92e486-f5b6-11ed-90ce-dac502259ad0.pngAB3DMOT

目標(biāo)匹配

匈牙利算法是一種求解二分圖最小權(quán)值匹配問題的方法

相似度計算

針對不同類別,我們采用了不同的方法來計算前后幀目標(biāo)相似度(權(quán)值):

針對車輛目標(biāo),計算兩兩之間的BEV IOU

針對行人、騎行者和三角錐,由于目標(biāo)較小,前后幀的IOU大部分為0,因此計算兩兩中心點的歐式距離

最優(yōu)匹配求解

得到相似度矩陣后,我們利用scipy.optimize.linear_sum_assignment函數(shù)求解得到三個輸出:

matched: 前后幀匹配上的目標(biāo)

unmatch_old: 在前一幀跟蹤列表中未匹配上的目標(biāo)

unmatch_new: 當(dāng)前幀檢測輸出但未匹配上的目標(biāo)

卡爾曼濾波跟蹤

卡爾曼濾波是一種狀態(tài)估計算法,在LSD中,我們使用卡爾曼濾波算法對目標(biāo)進行建模和狀態(tài)估計:

針對unmatch_new目標(biāo),作為當(dāng)前幀新出現(xiàn)的目標(biāo),添加進跟蹤列表

針對unmatch_old目標(biāo),表示當(dāng)前幀該目標(biāo)未檢測到,通過運動學(xué)模型對其進行預(yù)測

針對matched目標(biāo),將當(dāng)前幀作為觀測值,利用卡爾曼濾波器對其狀態(tài)更新

實車測試

我們只使用了公開數(shù)據(jù)集進行訓(xùn)練,在未訓(xùn)練過的城市道路環(huán)境中實車測試,檢驗?zāi)P秃透櫵惴ǖ聂敯粜浴?/p>

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    212

    文章

    28910

    瀏覽量

    209656
  • 激光
    +關(guān)注

    關(guān)注

    19

    文章

    3318

    瀏覽量

    65158
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2928

    瀏覽量

    108470

原文標(biāo)題:LSD框架大揭秘 | 3D目標(biāo)檢測與跟蹤講解

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    視頻跟蹤目標(biāo)跟蹤算法簡介(上海凱視力成信息科技有限...

    跟蹤。適合于空對地和地對地場景。這個算法跟蹤場景的多個目標(biāo),然后依據(jù)每個的運動,從而估計整
    發(fā)表于 09-29 08:59

    多傳感器多目標(biāo)跟蹤的JPDA算法

    文中提出了一種適用于多傳感器多目標(biāo)跟蹤的JPDA算法,它以極大似然估計完成對來自多傳感器的測量集合進行同源最優(yōu)分劃,然后采用JPDA方法對多目標(biāo)進行
    發(fā)表于 02-03 10:38 ?47次下載
    多傳感器<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>的JPDA<b class='flag-5'>算法</b>

    改進霍夫森林框架的多目標(biāo)跟蹤算法

    針對目視覺對多個相似的目標(biāo)跟蹤因遮擋等因素影響而失效的問題,提出一種基于改進霍夫森林框架的多目標(biāo)跟蹤
    發(fā)表于 12-14 17:09 ?0次下載

    新技術(shù)可有效地使用目標(biāo)檢測的對抗示例欺騙多目標(biāo)跟蹤

    對抗機器學(xué)習(xí)的最新研究開始關(guān)注自主駕駛的視覺感知,并研究了目標(biāo)檢測模型的對抗示例。然而在視覺感知管道,在被稱為多目標(biāo)
    的頭像 發(fā)表于 02-01 11:01 ?3212次閱讀
    新技術(shù)可有效地使用<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>的對抗示例欺騙<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>

    如何更好地實現(xiàn)視頻多目標(biāo)軌跡的連續(xù)跟蹤

    下,引入YOOⅴ3檢測算法,并采用卷積特征對目標(biāo)進行描述,計算相鄰幀目標(biāo)的相似度矩陣,設(shè)計新生目標(biāo)識別和漏跟
    發(fā)表于 04-07 14:27 ?5次下載
    如何更好地實現(xiàn)視頻<b class='flag-5'>多目標(biāo)</b>軌跡的連續(xù)<b class='flag-5'>跟蹤</b>?

    多目標(biāo)跟蹤過程的數(shù)據(jù)關(guān)聯(lián)技術(shù)綜述

    多目標(biāo)跟蹤,其中目標(biāo)跟蹤相對簡單,除了需要解決與多目標(biāo)
    發(fā)表于 05-08 16:27 ?2次下載

    基于三維激光目標(biāo)識別與跟蹤研究

    基于三維激光目標(biāo)識別與跟蹤研究 來源:《汽車工程》 ,作者徐國艷等 [摘要] 針對無人車環(huán)境感知
    發(fā)表于 01-17 11:22 ?837次閱讀

    基于三維激光目標(biāo)識別與跟蹤研究

    基于三維激光目標(biāo)識別與跟蹤研究 來源:《汽車工程》?,作者徐國艷等 [摘要]?針對無人車環(huán)境感知
    的頭像 發(fā)表于 02-15 13:36 ?3134次閱讀
    基于三維<b class='flag-5'>激光</b><b class='flag-5'>點</b><b class='flag-5'>云</b>的<b class='flag-5'>目標(biāo)</b>識別與<b class='flag-5'>跟蹤</b>研究

    3D-AI多目標(biāo)檢測器有效幫助規(guī)劃道路和城市未來

    3D-AI多目標(biāo)檢測器將邊緣計算能力集成在傳感器內(nèi)部,通過3D-AI多目標(biāo)檢測算法,能夠?qū)崟r分析
    的頭像 發(fā)表于 07-21 11:51 ?1668次閱讀

    最常見的目標(biāo)跟蹤算法

    對象跟蹤問題一直是計算機視覺的熱點任務(wù)之一,簡單的可以分為目標(biāo)跟蹤多目標(biāo)跟蹤,最常見的
    的頭像 發(fā)表于 09-14 16:20 ?2933次閱讀

    基于幾何3D目標(biāo)檢測的密集幾何約束深度估計器

    基于幾何的3D目標(biāo)檢測通過2D-3D投影約束估計目標(biāo)
    的頭像 發(fā)表于 10-09 15:51 ?1057次閱讀

    基于MobileNet的多目標(biāo)跟蹤深度學(xué)習(xí)算法

    針對深度學(xué)習(xí)算法多目標(biāo)跟蹤的實時性問題, 提出一種基于MobileNet的多目標(biāo)跟蹤
    的頭像 發(fā)表于 11-09 10:23 ?1241次閱讀
    基于MobileNet的<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>深度學(xué)習(xí)<b class='flag-5'>算法</b>

    3D目標(biāo)跟蹤中常見的評價指標(biāo)和代碼詳解

    3D目標(biāo)跟蹤的評價指標(biāo),可以根據(jù)跟蹤目標(biāo)是單個
    發(fā)表于 08-02 12:38 ?1299次閱讀

    多目標(biāo)跟蹤算法總結(jié)歸納

    多目標(biāo)跟蹤是計算機視覺領(lǐng)域中的一個重要任務(wù),它旨在從視頻或圖像序列準(zhǔn)確地檢測跟蹤多個移動目標(biāo)
    的頭像 發(fā)表于 04-28 09:42 ?2408次閱讀
    <b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b><b class='flag-5'>算法</b>總結(jié)歸納

    使用STT全面提升自動駕駛多目標(biāo)跟蹤

    3D多目標(biāo)跟蹤3D MOT)在各種機器人應(yīng)用中發(fā)揮著關(guān)鍵作用,例如自動駕駛車輛。為了在駕駛時避免碰撞,機器人汽車必須可靠地跟蹤道路上的物體
    的頭像 發(fā)表于 10-28 10:07 ?402次閱讀
    使用STT全面提升自動駕駛<b class='flag-5'>中</b>的<b class='flag-5'>多目標(biāo)</b><b class='flag-5'>跟蹤</b>
    主站蜘蛛池模板: 92电影网午夜福利 | 国产真实夫妇交换视频 | 久久亚洲伊人 | 欧美性猛交XXXX乱大交极品 | 张开腿我尝尝你的草莓 | 最美女人体内射精一区二区 | 1区2区3区4区产品不卡码网站 | 国产在线高清视频 | 一道本av免费不卡播放 | 国产极品美女视频福利 | 王晶经典三级 | 色狠狠xx | 成人免费在线视频 | 特级毛片s级全部免费 | 亚洲免费网站观看视频 | 国产成人精品免费视频大全可播放的 | 忘忧草日本在线社区WWW电影 | 中国xxxxxxxxx孕交 | 人妻 中文无码 中出 | 毛片无码免费无码播放 | 翘臀少妇被扒开屁股日出水爆乳 | 俄罗斯一级毛片aaaa | 国产精品成人自拍 | 99久久99久久久99精品齐 | 久久久久久久免费 | 精品一区二区免费视频蜜桃网 | 久久久久久久久女黄 | 果冻传媒在线观看网站 | 芭乐视频网页版在线观看 | 久久性综合亚洲精品电影网 | 男女后进式猛烈xx00动态图片 | 日本888 xxxx| 98久久人妻少妇激情啪啪 | 精品久久99麻豆蜜桃666 | 成人无码精品1区2区3区免费看 | 一本道综合久久免费 | 九九久久精品国产 | 亚洲三级成人 | 国产色精品久久人妻无码看片 | 2019香蕉在线观看直播视频 | 99精品免费久久久久久久久蜜桃 |