H3D - HRI-US(地址:https://usa.honda-ri.com/hdd/introduction/h3d)本田研究所于2019年3月發布其無人駕駛方向數據集,相關介紹于https://arxiv.org/abs/1903.01568介紹。本數據集使用3D LiDAR掃描儀收集的大型全環繞3D多目標檢測和跟蹤數據集。其包含160個擁擠且高度互動的交通場景,在27,721幀中共有100萬個標記實例。憑借獨特的數據集大小,豐富的注釋和復雜的場景,H3D聚集在一起,以激發對全環繞3D多目標檢測和跟蹤的研究。
nuScenes(地址:https://www.nuscenes.org/)安波福于2019年3月正式公開了其數據集,并已在GitHub(地址:https://github.com/nutonomy/nuscenes-devkit)公開教程。數據集擁有從波士頓和新加坡收集的1000個“場景”的信息,包含每個城市環境中都有的最復雜的一些駕駛場景。該數據集由140萬張圖像、39萬次激光雷達掃描和140萬個3D人工注釋邊界框組成,是迄今為止公布的最大的多模態3D 無人駕駛數據集。
ApolloCar3D該數據集包含5,277個駕駛圖像和超過60K的汽車實例,其中每輛汽車都配備了具有絕對模型尺寸和語義標記關鍵點的行業級3D CAD模型。該數據集比PASCAL3D +和KITTI(現有技術水平)大20倍以上。
KITTI Vision Benchmark Suite(地址:
http://www.cvlibs.net/datasets/kitti/raw_data.php)數據集為使用各種傳感器模式,例如高分辨率彩色和灰度立體相機,Velodyne 3D激光掃描儀和高精度GPS/IMU慣性導航系統,在10-100 Hz下進行6小時拍攝的交通場景。
Cityscape Dataset(地址:https://www.cityscapes-dataset.com/)專注于對城市街景的語義理解。大型數據集,包含從50個不同城市的街景中記錄的各種立體視頻序列,高質量的像素級注釋為5000幀,另外還有一組較大的20000個弱注釋幀。因此,數據集比先前的類似嘗試大一個數量級。可以使用帶注釋的類的詳細信息和注釋示例。
Mapillary Vistas Dataset(地址:https://www.mapillary.com/dataset/vistas?pKey=xyW6a0ZmrJtjLw2iJ71Oqg&lat=20&lng=0&z=1.5)數據集是一個新穎的大規模街道級圖像數據集,包含25,000個高分辨率圖像,注釋為66個對象類別,另有37個類別的特定于實例的標簽。通過使用多邊形來描繪單個對象,以精細和細粒度的樣式執行注釋。
CamVid
(地址:http://mi.eng.cam.ac.uk/research/projects/VideoRec/CamVid/)劍橋駕駛標簽視頻數據庫(CamVid)是第一個具有對象類語義標簽的視頻集合,其中包含元數據。數據庫提供基礎事實標簽,將每個像素與32個語義類之一相關聯。該數據庫解決了對實驗數據的需求,以定量評估新興算法。雖然大多數視頻都使用固定位置的閉路電視風格相機拍攝,但我們的數據是從駕駛汽車的角度拍攝的。駕駛場景增加了觀察對象類的數量和異質性。
Caltech數據集(地址:
http://www.vision.caltech.edu/Image_Datasets/CaltechPedestrians/) - 加州理工學院行人數據集包括大約10小時的640x480 30Hz視頻,這些視頻來自在城市環境中通過常規交通的車輛。大約250,000個幀(137個近似分鐘的長段)共有350,000個邊界框和2300個獨特的行人被注釋。注釋包括邊界框和詳細遮擋標簽之間的時間對應。更多信息可以在我們的PAMI 2012和CVPR 2009基準測試文件中找到。
Comma.ai(地址:https://archive.org/details/comma-dataset)7.25小時的高速公路駕駛。包含10個可變大小的視頻片段,以20 Hz的頻率錄制,相機安裝在Acura ILX 2016的擋風玻璃上。與視頻平行,還記錄了一些測量值,如汽車的速度、加速度、轉向角、GPS坐標,陀螺儀角度。這些測量結果轉換為均勻的100 Hz時基。
Oxford's Robotic Car(地址:https://robotcar-dataset.robots.ox.ac.uk/) - 超過100次重復對英國牛津的路線進行一年多采集拍攝。該數據集捕獲了許多不同的天氣,交通和行人組合,以及建筑和道路工程等長期變化。
伯克利BDD100K數據(地址:https://bdd-data.berkeley.edu/)超過100K的視頻和各種注釋組成,包括圖像級別標記,對象邊界框,可行駛區域,車道標記和全幀實例分割,該數據集具有地理,環境和天氣多樣性。
Udacity(地址:https://github.com/udacity/self-driving-car/tree/master/datasets) - 為Udacity Challenges(地址:https://cn.udacity.com/course/self-driving-car-engineer--nd013)發布的Udacity數據集。包含ROSBAG訓練數據。(大約80 GB)。
University of Michigan North Campus Long-Term Vision and LIDAR Dataset(地址:http://robots.engin.umich.edu/nclt/) - 包括全方位圖像,3D激光雷達,平面激光雷達,GPS和本體感應傳感器,用于使用Segway機器人收集的測距。
University of Michigan Ford Campus Vision and Lidar Data Set(地址:http://robots.engin.umich.edu/SoftwareData/Ford)基于改進的福特F-250皮卡車的自動地面車輛測試臺收集的數據集。該車配備了專業(Applanix POS LV)和消費者(Xsens MTI-G)慣性測量單元(IMU),Velodyne 3D激光雷達掃描儀,兩個推掃式前視Riegl激光雷達和Point Grey Ladybug3全方位攝像頭系統。
DIPLECS Autonomous Driving Datasets (2015)(地址:https://cvssp.org/data/diplecs/)通過在Surrey鄉村周圍駕駛的汽車中放置高清攝像頭來記錄數據集。該數據集包含大約30分鐘的駕駛時間。視頻為1920x1080,采用H.264編解碼器編碼。通過跟蹤方向盤上的標記來估計轉向。汽車的速度是從汽車的速度表OCR估算的(但不保證方法的準確性)。
Velodyne SLAM Dataset from Karlsruhe Institute of Technology(地址:
https://www.mrt.kit.edu/z/publ/download/velodyneslam/dataset.html)在德國卡爾斯魯厄市使用Velodyne HDL64E-S2掃描儀記錄的兩個具有挑戰性的數據集。
SYNTHetic collection of Imagery and Annotations (SYNTHIA)(地址:http://synthia-dataset.net/)包括從虛擬城市渲染的照片般逼真的幀集合,并為13個類別提供精確的像素級語義注釋:misc,天空,建筑,道路,人行道,圍欄,植被,桿,汽車,標志,行人, 騎自行車的人,車道標記。
CSSAD Dataset(地址:http://aplicaciones.cimat.mx/Personal/jbhayet/ccsad-dataset) 包括若干真實世界的立體數據集,用于在自動駕駛車輛的感知和導航領域中開發和測試算法。然而,它們都沒有記錄在發展中國家,因此它們缺乏在街道和道路上可以找到的特殊特征,如豐富的坑洼,減速器和特殊的行人流。該立體數據集是從移動的車輛記錄的,并且包含高分辨率立體圖像,其補充有從IMU,GPS數據和來自汽車計算機的數據獲得的定向和加速度數據。
Daimler Urban Segmetation Dataset(地址:http://www.6d-vision.com/scene-labeling) 包括城市交通中記錄的視頻序列。該數據集由5000個經過校正的立體圖像對組成,分辨率為1024x440。500幀(序列的每10幀)帶有5個類的像素級語義類注釋:地面,建筑,車輛,行人,天空。提供密集視差圖作為參考,但是這些不是手動注釋的,而是使用半全局匹配(sgm)計算的。
Self Racing Cars- XSens/Fairchild Dataset(地址:http://data.selfracingcars.com/)文件包括來自Fairchild FIS1100 6自由度(DoF)IMU,Fairchild FMT-1030 AHRS,Xsens MTi-3 AHRS和Xsens MTi-G-710 GNSS / INS的測量結果。事件中的文件都可以在MT Manager軟件中讀取,該軟件可作為MT軟件套件的一部分提供,可在此處獲得。
MIT AGE Lab(地址:http://lexfridman.com/automated-synchronization-of-driving-data-video-audio-telemetry-accelerometer/) - 由AgeLab收集的1,000多小時多傳感器駕駛數據集的一小部分樣本。
LaRA(地址:http://www.lara.prd.fr/lara)-巴黎的交通信號燈數據集
KUL Belgium Traffic Sign Dataset(地址:http://www.vision.ee.ethz.ch/~timofter/traffic_signs/) - 具有10000多個交通標志注釋的大型數據集,數千個物理上不同的交通標志。用8個高分辨率攝像頭錄制的4個視頻序列安裝在一輛面包車上,總計超過3個小時,帶有交通標志注釋,攝像機校準和姿勢。大約16000張背景圖片。這些材料通過GeoAutomation在比利時,佛蘭德斯地區的城市環境中捕獲。
LISA: Laboratory for Intelligent & Safe Automobiles, UC San Diego Datasets(地址:http://cvrr.ucsd.edu/LISA/datasets.html)交通標志,車輛檢測,交通燈,軌跡模式。
博世小交通燈(地址:https://hci.iwr.uni-heidelberg.de/node/6132) - 用于深度學習的小型交通燈的數據集。
Multisensory Omni-directional Long-term Place Recognition (MOLP) dataset for autonomous driving(地址:http://hcr.mines.edu/code/MOLP.html) - 它是在美國科羅拉多州的一年內使用全向立體相機錄制的。論文(地址:https://arxiv.org/abs/1704.05215)
DeepTesla(地址:https://selfdrivingcars.mit.edu/deeptesla/):主要包括tesla在兩種不同駕駛模式(human driving和autopilot)下的前置相機錄制的視頻和車輛的轉向控制信號。數據可以從這里下載:百度云(地址:https://pan.baidu.com/s/1c2J2IFA#list/path=%2F)。可以參考此GitHub(地址:https://github.com/CJHMPower/deep-tesla)
看到其他數據將繼續更新。。。
-
傳感器
+關注
關注
2551文章
51177瀏覽量
754283 -
數據集
+關注
關注
4文章
1208瀏覽量
24726 -
無人駕駛
+關注
關注
98文章
4068瀏覽量
120594
原文標題:無人駕駛數據集匯總
文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論