基于事件的攝像機(jī)是一種新的無源傳感方式,與傳統(tǒng)的攝像機(jī)相比有許多優(yōu)點(diǎn),包括極低的延遲、異步數(shù)據(jù)采集、高動態(tài)范圍和極低的功耗。最近,人們對應(yīng)用算法來使用事件執(zhí)行各種3D感知任務(wù)非常感興趣,比如特征跟蹤、視覺里程數(shù)測量和立體深度估計(jì)。然而,目前缺乏像傳統(tǒng)相機(jī)那樣豐富的標(biāo)記數(shù)據(jù),無法用于測試和開發(fā)。在本文中,我們展示了一個大型數(shù)據(jù)集,該數(shù)據(jù)集采用了基于事件的同步立體攝影系統(tǒng),該系統(tǒng)由一個手持式設(shè)備攜帶,在各種不同的照明水平和環(huán)境中,由一架六軸飛行器飛行,在汽車頂部驅(qū)動,并安裝在摩托車上。從每個相機(jī)中,我們提供事件流、灰度圖像和IMU讀數(shù)。此外,我們利用IMU、剛性安裝的激光雷達(dá)系統(tǒng)、室內(nèi)外運(yùn)動捕捉和GPS的組合,以高達(dá)100Hz的頻率為每個攝像機(jī)提供準(zhǔn)確的姿勢和深度圖像。為了進(jìn)行比較,我們還提供了同步的灰度圖像和基于框架的立體攝像機(jī)系統(tǒng)的IMU讀數(shù)。
I.簡介 基于EVENT的相機(jī)通過檢測圖像的對數(shù)強(qiáng)度的變化來感知世界。通過以幾十微秒的精度記錄這些變化,以及異步的、幾乎是即時的反饋,與傳統(tǒng)相機(jī)通常有幾十毫秒的延遲相比,它們可以實(shí)現(xiàn)極低的延遲響應(yīng)。此外,通過跟蹤日志強(qiáng)度的變化,攝像機(jī)具有非常高的動態(tài)范圍(>130dB,而傳統(tǒng)攝像機(jī)約為60dB),這使得它們對照明的戲劇性變化的場景非常有用,如室內(nèi)-室外的過渡,以及有強(qiáng)光源的場景,如太陽。然而,大多數(shù)現(xiàn)代機(jī)器人算法都是為同步傳感器設(shè)計(jì)的,測量結(jié)果以固定的時間間隔到達(dá)。此外,生成的事件本身并不帶有任何強(qiáng)度信息。
因此,必須開發(fā)新的算法以充分利用該傳感器提供的優(yōu)勢。不幸的是,由于測量方法的不同,我們不能直接利用傳統(tǒng)相機(jī)捕捉到的大量標(biāo)簽數(shù)據(jù)。事實(shí)證明,這些數(shù)據(jù)對于為新方法提供真實(shí)和一致的評估、訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng)以及為無法接觸到這些傳感器的研究人員提供新的發(fā)展機(jī)會來說,是極其重要的。在這項(xiàng)工作中,我們旨在提供一些不同的序列,以促進(jìn)研究和開發(fā)一些不同問題的新穎解決方案。一個主要的貢獻(xiàn)是建立了第一個具有同步立體事件攝像系統(tǒng)的數(shù)據(jù)集。經(jīng)過校準(zhǔn)的立體系統(tǒng)對于用度量衡進(jìn)行深度估計(jì)很有幫助,這有助于解決諸如姿勢估計(jì)、繪圖、避障和3D重建等問題。在基于事件的攝像機(jī)的立體深度估計(jì)方面已經(jīng)有了一些工作,但是,由于缺乏準(zhǔn)確的地面實(shí)況深度,評估只限于小的、不相干的序列,包括攝像機(jī)前面的幾個物體。相比之下,這個數(shù)據(jù)集提供了來自兩個同步和校準(zhǔn)的動態(tài)視覺和主動像素傳感器(DAVIS- m346b)的事件流,在各種光照和速度下的室內(nèi)和室外長序列,以及精確的深度圖像和高達(dá)100Hz的姿勢,由安裝在相機(jī)頂部的激光雷達(dá)系統(tǒng)產(chǎn)生,如圖1,同時還有運(yùn)動捕捉和GPS。我們希望這個數(shù)據(jù)集可以幫助為一些應(yīng)用中基于事件的算法評估提供一個共同的基礎(chǔ)。完整的數(shù)據(jù)集可以在網(wǎng)上找到:https:// daniilidis-group.github.io/mvse本文的主要貢獻(xiàn)可歸納為:● 第一組帶有同步立體事件相機(jī)的數(shù)據(jù)集,具有準(zhǔn)確的地面實(shí)況深度和姿態(tài)。● 來自手持式鉆機(jī)、六軸飛行器、汽車和摩托車的事件數(shù)據(jù),以及來自3D激光雷達(dá)、IMU和基于框架的圖像的校準(zhǔn)傳感器數(shù)據(jù),來自各種不同的速度、照明水平和環(huán)境。
II.相關(guān)工作 A.相關(guān)數(shù)據(jù)集
目前,有一些現(xiàn)有的數(shù)據(jù)集提供了來自單眼事件相機(jī)的事件,并與其他各種傳感方式和地面實(shí)況測量相結(jié)合,適用于測試一些不同的3D感知任務(wù)。
Weikersdorfer等人[1]將早期的128x128分辨率的eDVS傳感器與Primesense RGBD傳感器結(jié)合起來,并提供了一個室內(nèi)序列的數(shù)據(jù)集,其地面實(shí)況姿勢來自運(yùn)動捕捉系統(tǒng),深度來自RGBD傳感器。Rueckauer等人[2]提供了來自DAVIS 240C相機(jī)的純旋轉(zhuǎn)運(yùn)動的數(shù)據(jù),以及基于陀螺儀報(bào)告的角速度的地面實(shí)況光學(xué)流,盡管這受到報(bào)告速度中的噪音影響。Barranco等人[3]提出了一個數(shù)據(jù)集,其中的DAVIS 240B相機(jī)安裝在一個平移傾斜裝置的頂部,與微軟的Kinect傳感器一起連接在一個移動基地上。該數(shù)據(jù)集提供了基地在室內(nèi)環(huán)境中以5自由度移動的序列,以及來自基地上的輪子編碼器和平移傾斜裝置的角度的地面實(shí)況深度、光學(xué)流和姿勢。雖然來自Kinect的深度是準(zhǔn)確的,但光學(xué)流和姿勢會受到底座的輪子編碼器的位置估計(jì)的影響而發(fā)生漂移。Mueggler等人[4]提供了一些用于在各種室內(nèi)和室外環(huán)境中進(jìn)行姿勢估計(jì)的手持序列,這些序列由DAVIS 240C生成。一些室內(nèi)場景提供了姿態(tài)的基礎(chǔ)真實(shí),是由動作捕捉系統(tǒng)捕獲的。然而,沒有戶外序列,或其他具有明顯位移的序列,具有地面實(shí)況信息。Binas等人[5]提供了一個安裝在汽車擋風(fēng)玻璃后面的DAVIS 346B的大型數(shù)據(jù)集,其中有12個小時的駕駛,旨在對各種駕駛相關(guān)的任務(wù)進(jìn)行端對端學(xué)習(xí)。作者提供了一些來自車輛的輔助測量數(shù)據(jù),如轉(zhuǎn)向角、加速器踏板位置、車速等,以及來自GPS裝置的經(jīng)度和緯度。然而,沒有提供6自由度的姿勢,因?yàn)橹荒軓乃峁┑腉PS輸出中推斷出2D平移。這些數(shù)據(jù)集為開發(fā)和評估基于事件的方法提供了寶貴的數(shù)據(jù)。然而,迄今為止,他們只有單目序列,地面實(shí)況6自由度的姿勢僅限于小型室內(nèi)環(huán)境,很少有序列具有地面實(shí)況深度。相比之下,這項(xiàng)工作提供了在各種室內(nèi)和室外環(huán)境中具有地面實(shí)況姿態(tài)和深度圖像的立體序列。B.基于事件的3D感知早期的工作[6],[7]提出了立體深度估計(jì)的結(jié)果,有一些空間和時間成本。后來在[8]、[9]和[10]的工作中,將立體深度的合作方法適應(yīng)于基于事件的攝像機(jī),因?yàn)樗鼈冞m用于異步的、基于點(diǎn)的測量。同樣,[11]和[12]應(yīng)用了一套時間、極性、排序和極性約束來確定匹配,而[13]則將其與基于方位儀庫輸出的匹配進(jìn)行比較。
作者在[14]中展示了一種新的方法來確定外極線,應(yīng)用于立體匹配。在[15]中,作者提出了一個新的上下文描述符來進(jìn)行匹配,[16]中的作者使用了一個經(jīng)歷純旋轉(zhuǎn)的立體事件相機(jī)來進(jìn)行深度估計(jì)和全景拼接。
也有一些關(guān)于基于事件的視覺測距和SLAM問題的工作。作者在[17]和[18]中提出了在事件空間中進(jìn)行特征跟蹤的新方法,他們在[19]和[20]中對這些方法進(jìn)行了擴(kuò)展,分別進(jìn)行視覺和視覺慣性測距。在[1]中,作者將一個基于事件的相機(jī)與深度傳感器結(jié)合起來,進(jìn)行視覺測距和SLAM。[21]中的作者使用事件來估計(jì)攝像機(jī)的角速度,而[22]和[23]則通過建立一個最高比例的地圖來進(jìn)行視覺測向。此外,[24]和[25]還將事件與來自IMU的測量值相融合,進(jìn)行視覺慣性測距。雖然較新的作品基于公共數(shù)據(jù)集進(jìn)行評估,如[4],但大多數(shù)是在僅為論文而產(chǎn)生的小數(shù)據(jù)集上進(jìn)行評估,使得性能的比較變得很困難。對于基于立體事件的攝像機(jī)來說,情況尤其如此。在這項(xiàng)工作中,我們試圖產(chǎn)生更廣泛的基礎(chǔ)真相,以便對新算法進(jìn)行更有意義的評估,為方法之間的比較提供基礎(chǔ)。
III.數(shù)據(jù)集
對于該數(shù)據(jù)集中的每個序列,我們以ROS bag1格式提供以下測量結(jié)果:● 事件,APS灰度圖像和來自左右DAVIS相機(jī)的IMU測量。● 來自VI傳感器的圖像和IMU測量。● 來自Velodyne VLP-16激光雷達(dá)2的點(diǎn)云。● 左邊DAVIS相機(jī)的地面實(shí)況參考姿勢。● 左邊和右邊DAVIS相機(jī)的地面實(shí)況參考深度圖像。A.傳感器
表I中列出了傳感器及其特點(diǎn)。此外,圖2a顯示了傳感器裝置的CAD圖,所有的傳感器軸都被標(biāo)明,圖2顯示了傳感器在每輛車上的安裝方式。
圖2:從左到右:(a):傳感器裝置的CAD模型。所有的傳感器軸都被貼上標(biāo)簽,并涂上對應(yīng)的顏色:R:X、G:Y、B:Z,每對軸之間只有大約90度的旋轉(zhuǎn)組合。(b): 安裝在六軸飛行器上的傳感器包。(c): 使用玻璃吸力三角架安裝在汽車天窗上的傳感器包。(d): DAVIS相機(jī)和VI傳感器安裝在摩托車上。請注意,在所有的配置中,VI傳感器都是倒著安裝的。最好以彩色方式觀看。
表一:傳感器和特征
如第五節(jié)所述,所有傳感器之間的外在因素是通過校準(zhǔn)來估計(jì)的。對于事件的產(chǎn)生,兩個實(shí)驗(yàn)性的mDAVIS-346B相機(jī)被安裝在一個水平的立體設(shè)置中。這些相機(jī)與[26]相似,但具有更高的346x260像素的分辨率,高達(dá)50fps的APS(基于幀的圖像)輸出,和更高的動態(tài)范圍。立體聲設(shè)備的基線是10厘米,攝像機(jī)的時間戳同步是通過使用從左側(cè)攝像機(jī)(主攝像機(jī))產(chǎn)生的觸發(fā)信號,通過外部電線向右側(cè)(從攝像機(jī))輸送同步脈沖。兩臺攝像機(jī)都有4毫米的鏡頭,水平視場角約為87度,每臺攝像機(jī)上都有一個額外的紅外切割濾波器,以抑制來自運(yùn)動捕捉系統(tǒng)的紅外閃光。APS的曝光是手動設(shè)置的(沒有自動曝光),這取決于照明條件,但相機(jī)之間總是相同的。雖然灰度DAVIS圖像的時間戳是同步的,但遺憾的是沒有辦法同步圖像采集本身。因此,圖像之間可能有高達(dá)10ms的偏移。為了提供地面實(shí)況的參考姿勢和深度(第四節(jié)),我們將Velodyne Puck LITE安裝在立體DAVIS相機(jī)上方。Velodyne激光雷達(dá)系統(tǒng)提供了傳感器周圍大量點(diǎn)的高度精確深度。激光雷達(dá)的安裝方式是,激光雷達(dá)較小的垂直視場與立體DAVIS設(shè)備的視場完全重疊。在室外場景中,我們還安裝了一個GPS設(shè)備,作為經(jīng)緯度的第二個地面實(shí)況參考。通常情況下,GPS被放置在遠(yuǎn)離傳感器裝置的地方,以避免USB 3.0數(shù)據(jù)線的干擾。此外,我們還安裝了一個VI傳感器[27],最初由Skybotix開發(fā),用于與基于框架的方法進(jìn)行比較。該傳感器與IMU有一對立體聲,都是同步的。不幸的是,唯一的安裝選擇是將攝像機(jī)倒置安裝,但我們提供了它們與DAVIS攝像機(jī)之間的轉(zhuǎn)換。B.序列
表二中列出了所有的序列和統(tǒng)計(jì)摘要,圖三中列出了疊加了事件的APS圖像樣本。1) 具有運(yùn)動捕捉功能的六軸飛行器: 傳感器安裝在六軸飛行器的計(jì)算堆下面,向下傾斜25度,如圖2b所示。兩個運(yùn)動捕捉系統(tǒng)被用來為這個數(shù)據(jù)集生成序列,一個在室內(nèi),一個在室外(圖4)。26.8m x 6.7m x 4.6m的室內(nèi)區(qū)域用20臺Vicon Vantage VP-16攝像機(jī)進(jìn)行檢測。30.5米x 15.3米x 15.3米的戶外網(wǎng)區(qū)配備了全天候運(yùn)動捕捉系統(tǒng),由34臺高分辨率Qualisys Oqus 700攝像機(jī)組成。這兩個系統(tǒng)通過發(fā)射紅外頻閃和跟蹤放置在六軸飛行器上的紅外反射標(biāo)記,以100Hz的頻率提供毫米級精度的姿勢。我們在每個區(qū)域提供不同長度和速度的飛行序列。2) 手持式:為了測試高動態(tài)范圍情況下的性能,整個傳感器裝置在室外和室內(nèi)環(huán)境以及有無外部照明的室內(nèi)環(huán)境中都進(jìn)行了循環(huán)。地面實(shí)況姿態(tài)和深度是由激光雷達(dá)SLAM提供的。表二:每輛車的序列。T:總時間,D:總行駛距離,lvlmax 。最大線速度,lωlmax : 最大角速度,MER:平均事件率。*這些序列沒有VI-Sensor的數(shù)據(jù)。+一個硬件故障導(dǎo)致這些序列的右側(cè)DAVIS灰度圖像失效。
圖3:白天和晚上的室內(nèi)和室外序列的樣本圖像與重疊的事件(藍(lán)色和紅色)。最好以彩色觀看。
圖4:運(yùn)動捕捉場地。左:室內(nèi)Vicon場地;右:戶外Qualisys場地。
IV.地面實(shí)況的生成
為了提供地面實(shí)況姿態(tài),在有條件的情況下,會使用動作捕捉姿態(tài)。否則,如果有激光雷達(dá),Cartographer[28]將用于驅(qū)動序列,將激光雷達(dá)掃描和IMU數(shù)據(jù)融合成激光雷達(dá)的循環(huán)閉合2D姿態(tài),利用第五章D節(jié)的校準(zhǔn)將其轉(zhuǎn)換為左DAVIS幀。對于戶外場景,我們也提供原始的GPS讀數(shù)。
對于每個有激光雷達(dá)測量的序列,我們運(yùn)行激光雷達(dá)測繪(LOAM)算法[29]來生成密集的三維局部地圖,這些地圖被投射到每個DAVIS相機(jī)中,以20Hz的頻率生成密集的深度圖像,并為手持序列提供3D姿勢。 我們使用了兩種獨(dú)立的激光雷達(dá)測距算法,因?yàn)槲覀冏⒁獾剑琇OAM產(chǎn)生了更好的、排列更整齊的局部地圖,而Cartographer的環(huán)形閉合則產(chǎn)生了更精確的全局位置,對于較長的軌跡來說,漂移更少。 雖然Cartographer只估計(jì)了一個2D的姿勢,但我們相信這是一個有效的假設(shè),因?yàn)樗{駛的道路在大多數(shù)情況下都有一個單一的一致的等級。A.地面實(shí)況姿勢
對于室內(nèi)和室外運(yùn)動捕捉領(lǐng)域的序列,在每個時間t的傳感器設(shè)備worldHbody(t)的主體框架的姿勢是以100Hz測量的,精度為毫米級。對于戶外序列,我們依靠Cartographer來執(zhí)行循環(huán)閉合,并將激光雷達(dá)掃描和IMU數(shù)據(jù)融合到一個單一的循環(huán)閉合的主體(在這種情況下是激光雷達(dá))的2D姿勢中,并使其漂移最小。
為了對最終姿勢的質(zhì)量進(jìn)行量化衡量,我們將位置與GPS測量值對齊,并為數(shù)據(jù)集中的每個戶外序列提供疊加的衛(wèi)星圖像,以及所提供的地面實(shí)景和GPS之間的位置差異。圖7提供了Car Day 2的樣本覆蓋,其中Cartographer和GPS之間的平均誤差始終在5m左右,沒有漂移。
這個誤差在所有的戶外駕駛序列中是一致的,總體平均誤差為4.7米,與GPS的預(yù)期誤差大小相似。請注意,440秒左右的誤差峰值是由于巨大的GPS誤差造成的,對應(yīng)于覆蓋圖右上方的黑體部分。
在這兩種情況下,對于每個從左DAVIS幀到幀取點(diǎn)的序列,外在的變換,表示為4×4的同質(zhì)變換矩陣體worldHDAVIS,然后用來估計(jì)時間t的左DAVIS相對于時間t0的第一個左DAVIS的姿勢:
B.深度圖的生成
在有激光雷達(dá)的每個序列中,每個DAVIS相機(jī)的深度圖像都是為每個激光雷達(dá)測量而生成的。我們首先通過將當(dāng)前測量周圍的局部窗口中的每個激光雷達(dá)點(diǎn)云轉(zhuǎn)換為當(dāng)前測量的框架,使用LOAM的姿勢來生成一個局部地圖。在每次測量時,確定窗口大小,使窗口中當(dāng)前、第一和最后一個LOAM姿勢之間的距離至少為d米,并且當(dāng)前、第一和最后一個LOAM姿勢之間至少有s秒,其中d和s是為每個序列調(diào)整的參數(shù)。這些地圖的例子可以在圖5中找到。
然后,我們使用標(biāo)準(zhǔn)的針孔投影方程,將所得到的點(diǎn)云中的每個點(diǎn)p投射到每個DAVIS相機(jī)的圖像中:
其中Π是投影函數(shù):
而K是矩形圖像的相機(jī)本征矩陣(即投影矩陣的左上方3×3)。 任何落在圖像邊界之外的點(diǎn)都會被丟棄,圖像中每個像素位置上最接近的點(diǎn)被用來生成最終的深度圖,其例子可以在圖6中找到。 此外,我們還通過使用相機(jī)本征和OpenCV對矯正后的深度圖像進(jìn)行取消矯正和扭曲,提供沒有任何失真的原始深度圖像。
V.校準(zhǔn)
在這一節(jié)中,我們描述了為校準(zhǔn)每個DAVIS和VI-Sensor相機(jī)的內(nèi)在參數(shù)而進(jìn)行的各種步驟,以及每個相機(jī)、IMU和激光雷達(dá)之間的外在轉(zhuǎn)換。所有的校準(zhǔn)結(jié)果都以yaml形式提供。 使用Kalibr工具箱3 [30], [31], [32]對相機(jī)本征、立體外征和相機(jī)-IMU外征進(jìn)行校準(zhǔn),使用相機(jī)和范圍校準(zhǔn)工具箱4 [33]對左DAVIS相機(jī)和Velodyne激光雷達(dá)的外征進(jìn)行校準(zhǔn)。在動作捕捉世界幀中的Mocap模型姿態(tài)與左DAVIS相機(jī)姿態(tài)之間的手眼校準(zhǔn)是用CamOdoCal5[34]進(jìn)行的,并由人工進(jìn)行微調(diào)。
圖5:為地面實(shí)況生成的樣本地圖。左圖:汽車第1天序列的全圖,綠色為軌跡; 右圖:來自Hexacopter Indoor 3序列的局部地圖。
圖6:深度圖像(紅色)與事件疊加(藍(lán)色),來自Hexacopter Indoor 2和Car Day 1序列。請注意,由于激光雷達(dá)的垂直視場和范圍有限,圖像的部分區(qū)域(黑色區(qū)域,特別是頂部)沒有深度。這些部分在數(shù)據(jù)中被標(biāo)記為NaN。最好以彩色方式觀看。
圖7:GPS和Cartographer在衛(wèi)星圖像上疊加的 Car Day 2 軌跡的比較。請注意,Cartographer和GPS之間的誤差峰值對應(yīng)于左側(cè)覆蓋圖右上方的黑體部分,主要是由于GPS誤差造成的。最好以彩色觀看。
為了抵消所安裝設(shè)備的變化,在收集數(shù)據(jù)的每一天,以及每次修改傳感有效載荷的時候,都要重復(fù)每一次校準(zhǔn)。除了校準(zhǔn)參數(shù)外,每天的原始校準(zhǔn)數(shù)據(jù)也可按需提供,以便用戶在需要時進(jìn)行自己的校準(zhǔn)。
A.攝像機(jī)的內(nèi)在、外在和時間校準(zhǔn)
為了校準(zhǔn)相機(jī)和IMU之間的轉(zhuǎn)換,在傳感器裝置在AprilTag網(wǎng)格前移動的情況下記錄了一個序列。這兩個校準(zhǔn)程序是分開的,以優(yōu)化每個單獨(dú)校準(zhǔn)的質(zhì)量。校準(zhǔn)序列再次通過Kalibr運(yùn)行,使用相機(jī)-IMU校準(zhǔn)來估計(jì)每個相機(jī)和每個IMU之間的轉(zhuǎn)換,給定先前的內(nèi)在校準(zhǔn)和相機(jī)-相機(jī)間的外在校準(zhǔn)。 B.攝像機(jī)到IMU的外在校準(zhǔn) 攝像機(jī)的內(nèi)因和外因是使用AprilTags[35]的網(wǎng)格來估計(jì)的,該網(wǎng)格在傳感器支架前移動,并使用Kalibr進(jìn)行校準(zhǔn)。每個校準(zhǔn)都提供了每個相機(jī)的焦距和主點(diǎn),以及相機(jī)之間的失真參數(shù)和外在因素。 此外,我們通過找到能使左DAVIS的IMU和VI傳感器的陀螺儀角速度大小的交叉相關(guān)性最大化的時間偏移,來校準(zhǔn)DAVIS立體對和VI傳感器之間的時間偏移。然后對數(shù)據(jù)集中的VI傳感器信息的時間戳進(jìn)行修改,以抵消這一偏差。
C.運(yùn)動捕捉到相機(jī)的外在校準(zhǔn) 每個動作捕捉系統(tǒng)以100Hz的頻率提供動作捕捉幀中的mocap模型的姿勢。然而,Mocap模型幀與任何攝像機(jī)幀都不一致,因此需要進(jìn)一步校準(zhǔn),以從運(yùn)動捕捉系統(tǒng)中獲得攝像機(jī)的姿勢。傳感器裝置以各種不同的姿勢被靜態(tài)地固定在April-網(wǎng)格的前面。每個姿勢在時間 ti時,測量網(wǎng)格幀aprilgrid HDAVIS(ti)中左DAVIS相機(jī)幀的姿勢,以及mocap幀mocap Hbody(ti)中mocap模型(表示主體)的姿勢。然后,這些姿勢被用來解決手眼校準(zhǔn)問題,即把左DAVIS框架中的一個點(diǎn)轉(zhuǎn)換為模型框架bodyHDAVIS:
使用CamOdoCal進(jìn)行優(yōu)化,使用[36]中的線性方法,并使用[34]中描述的非線性優(yōu)化方法進(jìn)行重新篩選。
D.激光雷達(dá)到相機(jī)的外在校準(zhǔn) 將一個點(diǎn)從激光雷達(dá)框架帶到左邊的DAVIS框架的轉(zhuǎn)換,最初是使用相機(jī)和范圍校準(zhǔn)工具箱[33]進(jìn)行校準(zhǔn)。四個大的棋盤圖案被放置在DAVIS相機(jī)的視場內(nèi),每臺相機(jī)的一對圖像被記錄下來,同時還有一個完整的激光雷達(dá)掃描。 校準(zhǔn)器然后估計(jì)出使攝像機(jī)和激光雷達(dá)觀測到的棋盤相一致的平移和旋轉(zhuǎn)。 然而,我們發(fā)現(xiàn),在查看投影的深度圖像時,報(bào)告的變換有多達(dá)五像素的誤差(圖6)。此外,由于激光雷達(dá)和攝像機(jī)不是硬件時間同步的,兩個傳感器之間偶爾會有明顯的、持續(xù)的時間延遲。為了改善校準(zhǔn),我們根據(jù)CAD模型的值來確定翻譯,并手動調(diào)整了旋轉(zhuǎn)和時間偏移,以最大限度地提高深度和事件圖像之間的重疊。為了視覺上的確認(rèn),我們提供了每個攝像頭的深度圖像與事件的疊加。數(shù)據(jù)集中提供的激光雷達(dá)信息的時間戳對時間偏移進(jìn)行了抵消。
VI.已知問題
A.移動對象用于生成深度圖的映射假設(shè)場景是靜態(tài)的,通常不會過濾掉移動物體上的點(diǎn)。因此,在追蹤其他汽車上的點(diǎn)時,報(bào)告的深度圖可能有高達(dá)兩米的誤差,等等。然而,與可用的數(shù)據(jù)總量相比,這些對象通常相當(dāng)罕見。如果需要,未來的工作可以涉及對圖像中的車輛進(jìn)行分類,并從深度圖中省略這些點(diǎn)。
B.時鐘同步性運(yùn)動捕捉和GPS只使用主機(jī)的時間與系統(tǒng)的其他部分同步。這可能會導(dǎo)致報(bào)告的時間戳與實(shí)際測量時間之間出現(xiàn)偏移。我們在一臺電腦上記錄所有的測量結(jié)果,以減少這種影響。此外,由于激光雷達(dá)的旋轉(zhuǎn)速度,激光雷達(dá)點(diǎn)的測量和信息的時間戳之間可能會有一些延遲。
C.DVS偏置
在生成每個序列時,使用了每個攝像機(jī)的默認(rèn)偏置。然而,人們注意到,對于室內(nèi)?ying序列,正負(fù)事件的比例比通常要高(~2.5-5倍)。在這一點(diǎn)上,我們不知道是什么原因?qū)е铝诉@種不平衡,也不知道調(diào)整偏置是否會平衡它。我們注意到,這種不平衡在斑紋層上特別偏斜。我們建議使用事件極性的研究人員在處理這些序列時要注意這種不平衡性。
VII.總結(jié)
我們提出了一個新的立體事件相機(jī)的數(shù)據(jù)集,在一些不同的車輛和不同的環(huán)境中,有6自由度姿勢和深度圖像的地面實(shí)況。我們希望這些數(shù)據(jù)能夠提供一個標(biāo)準(zhǔn),在此基礎(chǔ)上對新的基于事件的方法進(jìn)行評估和比較。
審核編輯 :李倩
-
相機(jī)
+關(guān)注
關(guān)注
4文章
1355瀏覽量
53678 -
激光雷達(dá)
+關(guān)注
關(guān)注
968文章
3981瀏覽量
190038 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1208瀏覽量
24726
原文標(biāo)題:多車立體事件相機(jī)數(shù)據(jù)集:用于3D感知的事件相機(jī)數(shù)據(jù)集
文章出處:【微信號:阿寶1990,微信公眾號:阿寶1990】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論