色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于Open3D的Lidar-Segment

新機器視覺 ? 來源:古月居 ? 作者: 敢敢のwings ? 2022-12-08 13:50 ? 次閱讀

1. Open3D-ML安裝和使用

首先對于Open3d,我們要先對源碼下載

# make sure you have the latest pip version
pip install --upgrade pip
# install open3d
pip install open3d

然后選擇要安裝兼容版本的PyTorch或TensorFlow,Open3d中提供了兩種安裝方式:

# To install a compatible version of TensorFlow
pip install -r requirements-tensorflow.txt
# To install a compatible version of PyTorch with CUDA
pip install -r requirements-torch-cuda.txt

這里作者選擇的是Pytorch,因為作者對Pytorch比較熟悉,然后使用下面命令測試Open3d是否安裝成功

# with PyTorch
python -c "import open3d.ml.torch as ml3d"
# or with TensorFlow
python -c "import open3d.ml.tf as ml3d"

下面我們可以下載數據集進行測試了

SemanticKITTI (project page)

Toronto 3D (github)

Semantic 3D (project-page)

S3DIS (project-page)

Paris-Lille 3D (project-page)

Argoverse (project-page)

KITTI (project-page)

Lyft (project-page)

nuScenes (project-page)

Waymo (project-page)

ScanNet(project-page)

這里選擇了SemanticKITTI的數據集進行測試

# Launch training for RandLANet on SemanticKITTI with torch.
python scripts/run_pipeline.py torch -c ml3d/configs/randlanet_semantickitti.yml --dataset.dataset_path  --pipeline SemanticSegmentation --dataset.use_cache True


# Launch testing for PointPillars on KITTI with torch.
python scripts/run_pipeline.py torch -c ml3d/configs/randlanet_semantickitti.yml --split test --dataset.dataset_path data --pipeline SemanticSegmentation --dataset.use_cache True --batch_size 16

雖然官方提供的predefined scripts非常便捷,但是既然我們裝好了Open3d,那我們就可以通過自己編寫代碼的方式來完成。

2. 基于Open3d的二次開發

下面將展示如何自己去調用Open3d的api去寫訓練集、測試集、可視化

模型訓練:

import os
import open3d.ml as _ml3d
import open3d.ml.torch as ml3d


cfg_file = "ml3d/configs/randlanet_semantickitti.yml"
cfg = _ml3d.utils.Config.load_from_file(cfg_file)


cfg.dataset['dataset_path'] = "./data"


dataset = ml3d.datasets.SemanticKITTI(cfg.dataset.pop('dataset_path', None), **cfg.dataset)


# create the model with random initialization.
model = ml3d.models.RandLANet(**cfg.model)


pipeline = ml3d.pipelines.SemanticSegmentation(model=model, dataset=dataset,device="cuda:0", **cfg.pipeline)


# prints training progress in the console.
pipeline.run_train()

在這里主要需要側重關注的有兩處:cfg_file和cfg.dataset['dataset_path'],這兩處分別是環境配置和數據集設置。

在randlanet_semantickitti.yml中里面包含了所有需要配置的內容

randlanet_semantickitti.yml

dataset:
 name: Semantic3D
 dataset_path: # path/to/your/dataset
 cache_dir: ./logs/cache_small3d/
 class_weights: [5181602, 5012952, 6830086, 1311528, 10476365, 946982, 334860, 269353]
 ignored_label_inds: [0]
 num_points: 65536
 test_result_folder: ./test
 use_cache: true
 val_files:
 - bildstein_station1_xyz_intensity_rgb
 - domfountain_station1_xyz_intensity_rgb
 steps_per_epoch_train: 500
 steps_per_epoch_valid: 10
model:
 name: RandLANet
 batcher: DefaultBatcher
 ckpt_path: # path/to/your/checkpoint
 num_neighbors: 16
 num_layers: 5
 num_points: 65536
 num_classes: 8
 ignored_label_inds: [0]
 sub_sampling_ratio: [4, 4, 4, 4, 2]
 in_channels: 6
 dim_features: 8
 dim_output: [16, 64, 128, 256, 512]
 grid_size: 0.06
 augment:
  recenter:
   dim: [0, 1]
  normalize:
   feat:
    method: linear
    bias: 0
    scale: 255
  rotate:
   method: vertical
  scale:
   min_s: 0.9
   max_s: 1.1
  noise:
   noise_std: 0.001
pipeline:
 name: SemanticSegmentation
 optimizer:
  lr: 0.001
 batch_size: 2
 main_log_dir: ./logs
 max_epoch: 100
 save_ckpt_freq: 5
 scheduler_gamma: 0.9886
 test_batch_size: 1
 train_sum_dir: train_log
 val_batch_size: 2
 summary:
  record_for: []
  max_pts:
  use_reference: false
  max_outputs: 1

模型測試:

import os
import open3d.ml as _ml3d
import open3d.ml.torch as ml3d


cfg_file = "ml3d/configs/randlanet_semantickitti.yml"
cfg = _ml3d.utils.Config.load_from_file(cfg_file)


model = ml3d.models.RandLANet(**cfg.model)
cfg.dataset['dataset_path'] = "./data"
dataset = ml3d.datasets.SemanticKITTI(cfg.dataset.pop('dataset_path', None), **cfg.dataset)
pipeline = ml3d.pipelines.SemanticSegmentation(model, dataset=dataset, device="cuda:0", **cfg.pipeline)


# download the weights.
ckpt_folder = "./logs/"
os.makedirs(ckpt_folder, exist_ok=True)
ckpt_path = ckpt_folder + "randlanet_semantickitti_202201071330utc.pth"
randlanet_url = "https://storage.googleapis.com/open3d-releases/model-zoo/randlanet_semantickitti_202201071330utc.pth"
if not os.path.exists(ckpt_path):
  cmd = "wget {} -O {}".format(randlanet_url, ckpt_path)
  os.system(cmd)


# load the parameters.
pipeline.load_ckpt(ckpt_path=ckpt_path)


test_split = dataset.get_split("test")
print("len%d",test_split)
data = test_split.get_data(0)


# run inference on a single example.
# returns dict with 'predict_labels' and 'predict_scores'.
result = pipeline.run_inference(data)


# evaluate performance on the test set; this will write logs to './logs'.
pipeline.run_test()

在模型測試中和模型訓練一樣也需要cfg_file和cfg.dataset['dataset_path'],但是同時需要加入ckpt_path作為訓練模型的導入。

模型可視化

import os
import open3d.ml as _ml3d
import open3d.ml.torch as ml3d


cfg_file = "ml3d/configs/randlanet_semantickitti.yml"
cfg = _ml3d.utils.Config.load_from_file(cfg_file)
cfg.dataset['dataset_path'] = "./data"
# construct a dataset by specifying dataset_path
dataset = ml3d.datasets.SemanticKITTI(cfg.dataset.pop('dataset_path', None),**cfg.dataset)


# get the 'all' split that combines training, validation and test set
all_split = dataset.get_split('test')


# print the attributes of the first datum
print(all_split.get_attr(0))


# print the shape of the first point cloud
print(all_split.get_data(0)['point'].shape)


# show the first 100 frames using the visualizer
vis = ml3d.vis.Visualizer()
vis.visualize_dataset(dataset, 'all', indices=range(100))

模型可視化就沒什么好說的了,基本上和上述兩種差不不多,只是使用了ml3d.vis.Visualizer()做了可視化。

3. 如何理解SemanticKITTI數據集

KITTI Vision Benchmark 的里程計數據集,顯示了市中心的交通、住宅區,以及德國卡爾斯魯厄周圍的高速公路場景和鄉村道路。

原始里程計數據集由 22 個序列組成,將序列 00 到 10 拆分為訓練集,將 11 到 21 拆分為測試集。

SemanticKITTI數據集采用和 KITTI 數據集相同的標定方法。這使得該數據集和kitti數據集等數據集可以通用。

該數據集中對28個類進行了注釋,確保了類與Mapillary Visiotas數據集和Cityscapes數據集有很大的重疊,并在必要時進行了修改,以考慮稀疏性和垂直視野。

aa2cace0-76a9-11ed-8abf-dac502259ad0.png

bin文件中存儲著每個點,以激光雷達為原點的x,y,z,i信息,其中i是強度。

把數據提取出來也很簡單。用numpy庫。提取出來就是一個n行4列的矩陣。

points = np.fromfile(".bin文件路徑", dtype=np.float32).reshape(-1, 4)

接下來就是.label文件,在KITTI API的github中能找到說明。


里面東西也挺多的,主要就看.label那部分。

在remap_semantic_labels.py文件中。終于知道,label中每個值表示什么了。

在config目錄下的semantic-kitti.yaml文件中。

 label = np.fromfile(".label文件路徑", dtype=np.uint32)
 label = label.reshape((-1))

我們還區分了移動和非移動車輛與人類,即,如果車輛或人類在觀察時在某些掃描中移動,則會獲得相應的移動類別。

下圖列出了所有帶注釋的類,補充材料中可以找到對不同類的更詳細討論和定義。

總之,我們有28個類別,其中6個類別被指定為移動或非移動屬性

aa6799ea-76a9-11ed-8abf-dac502259ad0.png

每個velodyne文件夾下的xxxx.bin文件為每次掃描的原始數據,每個數據點的標簽的二進制表示儲存在文件xxxx.label中。

每個點的標簽是32位無符號整數(也稱為’uint32_t’),其中較低的16位對應于標簽。

較高位對應了16位編碼實例id,該id在整個序列中時間上是一致的,即兩次不同掃描中的同一對象獲得相同的id。

這也適用于移動車輛,但也適用于環路閉合后看到的靜態對象。

這里是開源SemanticKITTI的API。功能包括但不限于:可視化、計算IOU等。按照腳本的介紹即可完成使用。

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 開源
    +關注

    關注

    3

    文章

    3309

    瀏覽量

    42471
  • 源碼
    +關注

    關注

    8

    文章

    639

    瀏覽量

    29185
  • pytorch
    +關注

    關注

    2

    文章

    807

    瀏覽量

    13200

原文標題:基于Open3D的Lidar-Segment

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    淺談SiPM 傳感器在汽車 LiDAR的應用

    周圍環境的 3D 模型。LiDAR?系統捕獲的圖像中的每個像素都將具有與其關聯的深度。這允許更好地識別對象并消除可能存在于僅由圖像傳感器獲得的 2D 圖像中的任何歧義。 LiDAR如何
    的頭像 發表于 06-21 11:55 ?8100次閱讀
    淺談SiPM 傳感器在汽車 <b class='flag-5'>LiDAR</b>的應用

    LiDAR如何構建3D點云?如何利用LiDAR提供深度信息

    3D模型。LiDAR 系統捕獲的圖像中的每個像素都將具有與之關聯的深度。這樣可以更好地識別物體,并消除僅采用圖像傳感器獲得的2D圖像中可能存在的模糊。 LiDAR如何構建
    的頭像 發表于 04-06 12:00 ?4354次閱讀
    <b class='flag-5'>LiDAR</b>如何構建<b class='flag-5'>3D</b>點云?如何利用<b class='flag-5'>LiDAR</b>提供深度信息

    Atmel Segment LCD1用戶指南

      Atmel Segment LCD1 Xplained Pro is an extension board to the Atmel Xplained Pro evaluation
    發表于 09-12 19:25 ?7次下載

    TriLumina將推出940nm VCSEL照明,包羅3D LiDAR系統

    在CES 2018展會上會有許多來自四面八方的最先進的技術展示,據悉TriLumina將在CES 2018展現采取3D感應VCSEL照明的3D固態LiDAR,通過供給汽車裝備原廠LiDAR
    發表于 12-21 10:23 ?2846次閱讀

    微雪電子STM32開發板 Open32F3-D簡介

    STM32F303VCT6開發板 學習板 套餐B 含9款模塊 引出常用接口,含LCD、串口、音頻、存儲等模塊 型號 Open32F3-D (套餐B)
    的頭像 發表于 12-27 10:56 ?1623次閱讀
    微雪電子STM32開發板 <b class='flag-5'>Open32F3-D</b>簡介

    微雪電子STM32開發板 Open32F3-D簡介

    STM32F303VCT6開發板 學習板 套餐A 含7款模塊 引出常用接口,含LCD、串口、音頻、存儲等模塊 型號 Open32F3-D (套餐A)
    的頭像 發表于 12-27 11:20 ?1576次閱讀
    微雪電子STM32開發板 <b class='flag-5'>Open32F3-D</b>簡介

    微雪電子STM32開發板 Open32F3-D簡介

    STM32F303VCT6開發板底板 可接 STM32F3DISCOVERY 引出常用接口,可接微雪外圍模塊 型號 Open32F3-D (標準版)
    的頭像 發表于 12-27 11:04 ?1630次閱讀
    微雪電子STM32開發板 <b class='flag-5'>Open32F3-D</b>簡介

    日本Konami與假Open Bionic合作,推出了一款3D打印的仿生手臂

    2020年11月22日,南極熊獲悉,日本視頻游戲開發商Konami(科樂美)與假肢設計公司Open Bionic合作,推出了一款3D打印的仿生手臂,靈感來自于《 Metal Gear Solid
    的頭像 發表于 11-23 10:53 ?2683次閱讀

    如何在LiDAR點云上進行3D對象檢測

    該項目將借助KV260上的PYNQ-DPU覆蓋,從而能夠使我們在LiDAR點云上進行3D對象檢測比以往任何時候都更加高效!
    的頭像 發表于 04-26 17:41 ?2171次閱讀
    如何在<b class='flag-5'>LiDAR</b>點云上進行<b class='flag-5'>3D</b>對象檢測

    Open3D 3D數據處理庫

    ./oschina_soft/Open3D.zip
    發表于 06-17 14:45 ?1次下載
    <b class='flag-5'>Open3D</b> <b class='flag-5'>3D</b>數據處理庫

    Quanergy和PARIFEX合作發布基于3D LiDAR的超速抓拍系統

    領先的激光雷達傳感器和智能3D解決方案供應商Quanergy Systems, Inc. (NYSE:QNGY)今天宣布,PARIFEX的解決方案已被法國檢測機構認證為首個符合規范的3D-LiDAR技術超速抓拍系統。
    的頭像 發表于 07-15 15:46 ?1744次閱讀

    3D LiDAR 社交距離解決方案

    進行 3D 檢測方面,該公司還提供了一種解決方案,用于監控空間中的人流,以防止過度擁擠并實施占用限制,甚至可以跟蹤身材高大的人溫度。 QORTEX 流量管理平臺已被提名為 2020 年大流行技術創新獎的獲得者。在全球 Covid-19 大流行的浪潮中,Quanergy 對其平臺進行了調整,以提供
    發表于 07-28 11:16 ?361次閱讀
    <b class='flag-5'>3D</b> <b class='flag-5'>LiDAR</b> 社交距離解決方案

    徹底搞懂基于Open3D的點云處理教程!

    面向點云處理領域的基礎工具課,主要以Python為編程主要語言,介紹Open3D庫的使用方法。課程特點簡單易用,快速上手點云數據處理,更加側重于實戰,涉及的話題包括點云的配準、去噪、采樣、分割等,每個案例均提供源碼進行實戰。
    的頭像 發表于 05-29 09:49 ?5282次閱讀
    徹底搞懂基于<b class='flag-5'>Open3D</b>的點云處理教程!

    應用于機器人3D感知的高精度LiDAR與電機驅動解決方案

    機器人想要進行自主移動,便需要擁有3D感知(3D perception)功能,必須利用各種的傳感器來實時掌握機器人在空間中的位置,其中以LiDAR(激光雷達)能夠提供高精度的位置傳感,最受到業界
    的頭像 發表于 07-26 10:28 ?938次閱讀
    應用于機器人<b class='flag-5'>3D</b>感知的高精度<b class='flag-5'>LiDAR</b>與電機驅動解決方案

    基于LiDAR的行人重識別的研究分析

    基于激光雷達(LiDAR)的行人重識別。我們利用低成本的LiDAR設備解決了人員再識別中的挑戰,構建了名為LReID的LiDAR數據集,并提出了一種名為ReID3D
    發表于 12-11 10:41 ?744次閱讀
    基于<b class='flag-5'>LiDAR</b>的行人重識別的研究分析
    主站蜘蛛池模板: 人妻夜夜爽天天爽三区麻豆AV网站| 奇米网一区二区三区在线观看| 人妻洗澡被强公日日澡| 亚洲成人中文| 99福利影院| 国产亚洲精品线视频在线| 美女脱光app| 文中字幕一区二区三区视频播放| 曰产无码久久久久久精品| 大胸美女被c| 久久久久久亚洲精品影院| 肉动漫h黄动漫日本免费观看| 亚洲综合AV在线在线播放| 草b是什么感觉| 久久99精品国产麻豆婷婷| 日韩高清一区二区三区不卡| 伊人久久中文| 国产黄A片在线观看永久免费麻豆 国产互换后人妻的疯狂VIDEO | 一本到高清视频在线观看三区| wwwwwwwww日本电影| 九九免费的视频| 日本亚欧热亚洲乱色视频| 在线免费福利| 国产伦精品一区二区免费| 欧美最猛性XXXXX肛交| 一个人在线观看免费中文www| 国产成人cao在线| 女人爽到高潮嗷嗷叫视频| 亚洲视频区| 国产福利不卡在线视频| 欧美色图14p| 中文字幕视频免费在线观看| 国产人妻人伦精品熟女麻豆 | 色欲AV蜜臀AV在线观看麻豆| 91嫩草视频在线观看| 精品国产免费第一区二区| 天天躁躁水汪汪人碰人| www黄色com| 免费看大黄高清网站视频在线| 亚洲影院在线播放| 国产人妻777人伦精品HD|