色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用COCO數(shù)據(jù)集訓練和優(yōu)化二維姿態(tài)估計模型

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-10 09:30 ? 次閱讀

存在開發(fā)姿態(tài)估計的開源方法,但在推理性能方面不是最優(yōu)的,并且集成到生產(chǎn)應用程序中非常耗時。通過這篇文章,我們將向您展示如何開發(fā)和部署姿勢估計模型,這些模型易于跨設備配置文件使用,性能非常好,并且非常精確。

姿勢估計已與 NVIDIA 轉移學習工具包( TLT ) 3.0 集成,因此您可以利用 TLT 的所有功能(如模型修剪和量化)來創(chuàng)建精確和高性能的模型。經(jīng)過訓練后,您可以部署此模型進行推理以獲得實時性能。

本系列文章將引導您完成培訓、優(yōu)化、部署實時高性能姿勢估計模型的步驟。在第 1 部分中,您將學習如何使用開放源代碼 COCO 數(shù)據(jù)集訓練二維姿勢估計模型。在 第 2 部分 中,您將學習如何為推理吞吐量優(yōu)化模型,然后使用 TLT-CV 推理管道部署模型。我們將 TLT 訓練模型與其他最先進的模型進行了比較。

用 TLT 訓練二維姿態(tài)估計模型

在本節(jié)中,我們將介紹有關使用 TLT 訓練 2D 姿勢估計模型的以下主題:

Methodology

環(huán)境設置

數(shù)據(jù)準備

實驗配置文件

Training

Evaluation

模型驗證

Methodology

BodyPoseNet 模型的目標是預測給定輸入圖像中每個人的骨架,骨架由關鍵點和關鍵點之間的連接組成。

兩種常用的姿態(tài)估計方法是自頂向下和自下而上。自頂向下的方法通常使用對象檢測網(wǎng)絡來定位幀中所有人的邊界框,然后使用姿勢網(wǎng)絡來定位該邊界框內(nèi)的身體部位。顧名思義,自下而上的方法從下到上構建骨架。它首先檢測一個框架內(nèi)的所有人體部位,然后使用一種方法對屬于特定人的部位進行分組。

采用自下而上的方法有幾個原因。一是推理性能較高。與自頂向下的姿勢估計方法不同,自下而上的方法不需要單獨的人檢測器。計算不會隨場景中的人數(shù)線性縮放。這使您能夠實現(xiàn)擁擠場景的實時性能。此外,自底向上還具有全局上下文的優(yōu)點,因為將整個圖像作為輸入提供給網(wǎng)絡。它可以更好地處理復雜的姿勢和擁擠。

鑒于這些原因,這種方法的目的是實現(xiàn)有效的單桿,自下而上的姿態(tài)估計,同時也提供競爭力的準確性。本文使用的默認模型是完全卷積模型,由主干網(wǎng)、初始預測階段組成,該階段對置信圖( heatmap )和部分親和場( PAF )進行像素級預測,然后對初始預測進行多級細化( 0 到 N 階段)。此解決方案簡化并抽象了自底向上方法的許多復雜性,同時允許針對特定應用程序調(diào)整必要的旋鈕。

pYYBAGJSMzmAZi_FAABsk9MNzC4878.png

圖 1 。默認模型架構的簡化框圖。

PAFs 是一種用自下而上的方法表示關聯(lián)分數(shù)的方法。有關詳細信息,請參閱 基于部分相似域的實時多人二維姿態(tài)估計 。它由一組二維向量場組成,對肢體的位置和方向進行編碼。這與熱圖相關聯(lián),用于在后處理期間通過執(zhí)行二部匹配和關聯(lián)身體部位候選來構建骨架。

環(huán)境設置

NVIDIA TLT 工具包有助于抽象出 AI / DL 框架的復雜性,并使您能夠更快地構建生產(chǎn)質(zhì)量模型,而無需編碼。有關硬件和軟件要求、設置所需依賴項以及安裝 TLT 啟動器的更多信息,請參閱 TLT 快速入門指南 。

使用以下命令下載最新示例:

ngc registry resource download-version "nvidia/tlt_cv_samples:v1.1.0"

您可以在tlt_cv_samples:v1.1.0/bpnet找到示例筆記本,其中還包含所有詳細步驟。

為 cleaner 命令行命令設置 env 變量。更新以下變量值:

 export KEY=
 export NUM_GPUS=1
 # Local paths
 # The dataset is expected to be present in $LOCAL_PROJECT_DIR/bpnet/data. 
 export LOCAL_PROJECT_DIR=/home//tlt-experiments
 export SAMPLES_DIR=/home//tlt_cv_samples_vv1.1.0
 # Container paths
 export USER_EXPERIMENT_DIR=/workspace/tlt-experiments/bpnet
 export DATA_DIR=/workspace/tlt-experiments/bpnet/data
 export SPECS_DIR=/workspace/examples/bpnet/specs
 export DATA_POSE_SPECS_DIR=/workspace/examples/bpnet/data_pose_config
 export MODEL_POSE_SPECS_DIR=/workspace/examples/bpnet/model_pose_config 

要運行 TLT 啟動程序,請使用~/.tlt_mounts.json文件將本地計算機上的~/ TLT-experiments 目錄映射到 Docker 容器。有關詳細信息,請參閱TLT 發(fā)射器

創(chuàng)建~/.tlt_mounts.json文件并更新其中的以下內(nèi)容:

 {
  "Mounts": [
  {
  "source": "/home//tlt-experiments",
  "destination": "/workspace/tlt-experiments"
  },
  {
  "source": "/home//tlt_cv_samples_vv1.1.0/bpnet/specs",
  "destination": "/workspace/examples/bpnet/specs"
  },
  {
  "source": "/home//tlt_cv_samples_vv1.1.0/bpnet/data_pose_config",
  "destination": "/workspace/examples/bpnet/data_pose_config"
  },
  {
  "source": "/home//tlt_cv_samples_vv1.1.0/bpnet/model_pose_config",
  "destination": "/workspace/examples/bpnet/model_pose_config"
  }
  ]
 } 

確保要裝載的源目錄路徑有效。這會將主機上的路徑/home//tlt-experiments裝載為容器內(nèi)的路徑/workspace/tlt-experiments。它還將下載的規(guī)范裝載到主機上,使其成為容器內(nèi)的路徑/workspace/examples/bpnet/specs/workspace/examples/bpnet/data_pose_config/workspace/examples/bpnet/model_pose_config

通過運行以下命令,確保已安裝所需的依賴項:

 # Install requirements 
 pip3 install -r $SAMPLES_DIR/deps/requirements-pip.txt 

下載預訓練模型

首先,設置一個NGC帳戶,然后下載預訓練模型。目前,只支持 vgg19 主干網(wǎng)。

 # Create the target destination to download the model.
 mkdir -p $LOCAL_EXPERIMENT_DIR/pretrained_vgg19/
 
 # Download the pretrained model from NGC
 ngc registry model download-version nvidia/tlt_bodyposenet:vgg19 \
  --dest $LOCAL_EXPERIMENT_DIR/pretrained_vgg19 

數(shù)據(jù)準備

我們以本文中的 COCO ( context 上的公共對象) 2017 數(shù)據(jù)集為例。下載數(shù)據(jù)集并按照說明提取:

將 images 目錄解壓到$LOCAL_DATA_DIR目錄中,并將注釋解壓到$LOCAL_DATA_DIR/annotations中。

要準備用于訓練的數(shù)據(jù),必須生成分段掩碼,用于掩蓋未標記人員和 TFR 記錄的丟失,以提供給訓練管道。掩碼文件夾基于coco_spec.json文件中提供的路徑[mask_root_dir_path目錄是root_directory_path的相對路徑,mask_root_dir_pathannotation_root_dir_path也是如此。

 # Generate TFRecords for training dataset
 tlt bpnet dataset_convert \
  -m 'train' \
  -o $DATA_DIR/train \
  --generate_masks \
  --dataset_spec $DATA_POSE_SPECS_DIR/coco_spec.json
 
 # Generate TFRecords for validation dataset
 tlt bpnet dataset_convert \
  -m 'test' \
  -o $DATA_DIR/val \
  --generate_masks \
  --dataset_spec $DATA_POSE_SPECS_DIR/coco_spec.json 

要將此示例用于自定義數(shù)據(jù)集,請執(zhí)行以下操作:

  • 以類似于 COCO 數(shù)據(jù)集的格式準備數(shù)據(jù)和注釋。
  • 在 data \ u pose \ u config 下創(chuàng)建一個數(shù)據(jù)集規(guī)范,類似于 coco \ u spec . json ,其中包括數(shù)據(jù)集路徑、姿勢配置、遮擋標記約定等。
  • 將注釋轉換為 COCO 注釋格式。

有關更多信息,請參閱以下文檔:

列車試驗配置文件

下一步是為培訓配置 spec 文件。實驗規(guī)范文件是必不可少的,因為它編譯了實現(xiàn)良好模型所需的所有超參數(shù)。 BodyPoseNet 訓練的規(guī)范文件配置訓練管道的以下組件:

  • Trainer
  • Dataloader
  • Augmentation
  • 標簽處理機
  • Model
  • Optimizer

您可以在$SPECS_DIR/bpnet_train_m1_coco.yaml中找到默認規(guī)范文件。我們在規(guī)范文件的每個組件上展開,但這里不包括所有參數(shù)。有關詳細信息,請參閱創(chuàng)建列車試驗配置文件

培訓師(頂級配置)

頂層實驗配置包括實驗的基本參數(shù);例如,歷元數(shù)、預訓練權重、是否加載預訓練圖等。根據(jù)checkpoint_n_epoch值保存加密的檢查點。下面是一些頂級配置的代碼示例。

checkpoint_dir: /workspace/tlt-experiments/bpnet/models/exp_m1_unpruned
 checkpoint_n_epoch: 5
 num_epoch: 100
 pretrained_weights: /workspace/tlt-experiments/bpnet/pretrained_vgg19/tlt_bodyposenet_vvgg19/vgg_19.hdf5
 load_graph: False
 use_stagewise_lr_multipliers: True
 ... 

所有路徑(checkpoint_dirpretrained_weights)都是 Docker 容器的內(nèi)部路徑。要驗證正確性,請選中~/.tlt_mounts.json。有關這些參數(shù)的更多信息,請參閱身體姿勢訓練器部分。

Dataloader

本節(jié)幫助您定義數(shù)據(jù)路徑、圖像配置、目標姿勢配置、規(guī)范化參數(shù)等。augmentation_config部分提供了一些動態(tài)增強選項。它支持基本的空間增強,例如翻轉、縮放、旋轉和平移,這些都可以在訓練實驗之前配置。label_processor_config部分提供了配置地面實況要素圖生成所需的參數(shù)。

dataloader:
  batch_size: 10
  pose_config:
  target_shape: [32, 32]
  pose_config_path: /workspace/examples/bpnet/model_pose_config/bpnet_18joints.json
  image_config:
  image_dims:
  height: 256
  width: 256
  channels: 3
  image_encoding: jpg
  dataset_config:
  root_data_path: /workspace/tlt-experiments/bpnet/data/
  train_records_folder_path: /workspace/tlt-experiments/bpnet/data
  train_records_path: [train-fold-000-of-001]
  dataset_specs:
  coco: /workspace/examples/bpnet/data_pose_config/coco_spec.json
  normalization_params:
  ...
  augmentation_config:
  spatial_augmentation_mode: person_centric
  spatial_aug_params:
  flip_lr_prob: 0.5
  flip_tb_prob: 0.0
  ...
  label_processor_config:
  paf_gaussian_sigma: 0.03
  heatmap_gaussian_sigma: 7.0
  paf_ortho_dist_thresh: 1.0 
  • target_shape值取決于image_dims和模型步幅值(target_shape=input_shape/model stride)。當前模型的步幅為 8 。
  • 確保使用與dataset_spec中的root_directory_path相同的root_data_path值。dataset_spec中的掩碼和圖像數(shù)據(jù)目錄相對于root_data_path
  • 所有路徑,包括pose_config_pathdataset_configdataset_specs,都是 Docker 的內(nèi)部路徑。
  • 支持多種spatial_augmentation_modes
    • person_centric:增強是圍繞一個對基本真相感興趣的人。
    • standard:增強是標準的(即,以圖像中心為中心),并且保留圖像的縱橫比。
    • standard_with_fixed_aspect_ratio:與標準相同,但縱橫比固定為網(wǎng)絡輸入縱橫比。

有關每個參數(shù)的詳細信息,請參閱Dataloader部分。

Model

BodyPoseNet 模型可以使用 spec 文件中的 model 選項進行配置。下面是一個示例模型配置,用于實例化基于 VGG19 主干網(wǎng)的自定義模型。

model:
 backbone_attributes:
  architecture: vgg
 stages: 3
 heat_channels: 19
 paf_channels: 38
 use_self_attention: False
 data_format: channels_last
 use_bias: True
 regularization_type: l1
 kernel_regularization_factor: 5.0e-4
 bias_regularization_factor: 0.0
 ... 

網(wǎng)絡中用于姿勢估計的總階段數(shù)(細化階段+ 1 )由stages參數(shù)捕獲,該參數(shù)取任何值>= 2 。我們建議在修剪前訓練網(wǎng)絡時使用 L1 正則化器,因為 L1 正則化使修剪網(wǎng)絡權重更容易。有關模型中每個參數(shù)的詳細信息,請參閱Model部分。

優(yōu)化

本節(jié)介紹如何配置優(yōu)化器和學習速率計劃:

optimizer:
  __class_name__: WeightedMomentumOptimizer
  learning_rate_schedule:
  __class_name__: SoftstartAnnealingLearningRateSchedule
  soft_start: 0.05
  annealing: 0.5
  base_learning_rate: 2.e-5
  min_learning_rate: 8.e-08
  momentum: 0.9
  use_nesterov: False 

默認的base_learning_rate是為單個 GPU 訓練設置的。要使用多 GPU 訓練,可能需要修改“學習率”值以獲得類似的精度。在大多數(shù)情況下,將學習率提高一倍$NUM_GPUS將是一個良好的開端。例如,如果您使用兩個 GPU ,請在一個 GPU 設置中使用2 * base_learning_rate,如果您使用四個 GPU ,請使用4 * base_learning_rate。有關模型中每個參數(shù)的詳細信息,請參閱Optimizer部分。

訓練

在完成生成 TFRecords 和 mask 的步驟并設置了一個 train 規(guī)范文件之后,現(xiàn)在就可以開始訓練 body pose estimation 網(wǎng)絡了。使用以下命令啟動培訓:

tlt bpnet train -e $SPECS_DIR/bpnet_train_m1_coco.yaml \
  -r $USER_EXPERIMENT_DIR/models/exp_m1_unpruned \
  -k $KEY \
  --gpus $NUM_GPUS 

使用更多 GPU 進行培訓可以使網(wǎng)絡更快地接收更多數(shù)據(jù),從而在開發(fā)過程中節(jié)省寶貴的時間。 TLT 支持多 GPU 訓練,因此可以使用多個 GPU 并行訓練模型。我們建議使用四個或更多的 GPU 來訓練模型,因為一個 GPU MIG ht 需要幾天才能完成。訓練時間大致減少了一個系數(shù)$NUM_GPUS。確保根據(jù)Optimizer一節(jié)中描述的線性縮放方法相應地更新學習速率。

BodyPoseNet 支持從檢查點重新啟動。如果訓練作業(yè)過早終止,只需重新運行相同的命令,就可以從上次保存的檢查點恢復訓練。重新啟動培訓時,請確保使用相同數(shù)量的 GPU 。

評估

從配置推斷和評估規(guī)范文件開始。下面的代碼示例是一個示例規(guī)范:

model_path: /workspace/tlt-experiments/bpnet/models/exp_m1_unpruned/bpnet_model.tlt
 train_spec: /workspace/examples/bpnet/specs/bpnet_train_m1_coco.yaml
 input_shape: [368, 368]
 # choose from: {pad_image_input, adjust_network_input, None}
 keep_aspect_ratio_mode: adjust_network_input
 output_stage_to_use: null
 output_upsampling_factor: [8, 8]
 heatmap_threshold: 0.1
 paf_threshold: 0.05
 multi_scale_inference: False
 scales: [0.5, 1.0, 1.5, 2.0] 

此處的input_shape值可以不同于用于培訓的input_dims值。multi_scale_inference參數(shù)可在提供的比例上啟用多比例優(yōu)化。因為您使用的是步幅 8 的模型,output_upsampling_factor設置為 8 。

為了使評估與自底向上的人體姿勢估計研究保持一致,有兩種模式和規(guī)范文件來評估模型:

  • $SPECS_DIR/infer_spec.yaml:單刻度,非嚴格輸入。此配置對輸入圖像進行單比例推斷。通過固定網(wǎng)絡輸入的一側(高度或寬度),并調(diào)整另一側以匹配輸入圖像的縱橫比,來保持輸入圖像的縱橫比。
  • $SPECS_DIR/infer_spec_refine.yaml:多尺度、非嚴格輸入。此配置對輸入圖像進行多尺度推斷。電子秤是可配置的。

還有一種模式主要用于驗證最終導出的 TRT 模型。在后面的章節(jié)中使用這個。

  • $SPECS_DIR/infer_spec_strict.yaml:單刻度,嚴格輸入。此配置對輸入圖像進行單比例推斷。當 TRT 模型的輸入尺寸固定時,根據(jù)需要在側面填充圖像以適應網(wǎng)絡輸入尺寸,從而保留輸入圖像的縱橫比。

--model_filename參數(shù)重寫推理規(guī)范文件中的model_path變量。

要計算模型,請使用以下命令:

# Single-scale evaluation
 tlt bpnet evaluate --inference_spec $SPECS_DIR/infer_spec.yaml \
  --model_filename $USER_EXPERIMENT_DIR/models/exp_m1_unpruned/$MODEL_CHECKPOINT \
  --dataset_spec $DATA_POSE_SPECS_DIR/coco_spec.json \
  --results_dir $USER_EXPERIMENT_DIR/results/exp_m1_unpruned/eval_default \
  -k $KEY 

模型驗證

現(xiàn)在您已經(jīng)訓練了模型,運行推斷并驗證預測。要使用 TLT 直觀地驗證模型,請使用tlt bpnet inference命令。該工具支持對.tlt模型和 TensorRT.engine模型運行推理。它在detections.json中生成帶注釋的圖像,在這些圖像上渲染骨架,并逐幀序列化關鍵點標簽和元數(shù)據(jù)。例如,要使用經(jīng)過訓練的.tlt模型運行推理,請運行以下命令:

tlt bpnet inference --inference_spec $SPECS_DIR/infer_spec.yaml \
  --model_filename $USER_EXPERIMENT_DIR/models/exp_m1_unpruned/$MODEL_CHECKPOINT \
  --input_type dir \
  --input $USER_EXPERIMENT_DIR/data/sample_images \
  --results_dir $USER_EXPERIMENT_DIR/results/exp_m1_unpruned/infer_default \
  --dump_visualizations \
  -k $KEY 

圖 1 顯示了原始圖像的一個示例,圖 2 顯示了渲染姿勢結果的輸出圖像。如您所見,該模型對不同于 COCO 訓練數(shù)據(jù)的圖像具有魯棒性。

結論

在這篇文章中,您學習了如何使用 TLT 中的 BodyPoseNet 應用程序訓練身體姿勢模型。這篇文章展示了從 NGC 獲取一個帶有預訓練主干的開源 COCO 數(shù)據(jù)集,用 TLT 訓練一個模型。要優(yōu)化用于推理和部署的訓練模型,請參見 二維姿態(tài)估計模型的訓練與優(yōu)化,第 2 部分 。

關于作者

Sakthivel Sivaraman 是 NVIDIA 的高級軟件工程師,專注于開發(fā)深度學習計算機視覺解決方案,并將其部署到邊緣。在 2018 參加“ ZVK3]之前,他從賓夕法尼亞大學獲得機器人學博士學位。他的研究興趣包括計算機視覺、深度學習和機器人技術。

Rajath Shetty 是 NVIDIA 的工程經(jīng)理,負責在汽車和醫(yī)療保健領域應用深度學習和計算機視覺的項目。他的興趣涉及邊緣計算、算法人工智能應用軟件棧。他擁有喬治亞理工學院的電子和計算機工程碩士學位。

Chintan Shah 是 NVIDIA 的產(chǎn)品經(jīng)理,專注于智能視頻分析解決方案的 AI 產(chǎn)品。他管理工具箱,用于有效的深度學習培訓和實時推理。在他之前的工作中,他正在為 NVIDIA GPU 開發(fā)硬件 IP 。他擁有北卡羅來納州立大學電氣工程碩士學位。

Niral Pathak 是 NVIDIA 的軟件工程師,致力于計算機視覺解決方案的部署。他擁有加州大學圣地亞哥分校電子和計算機工程碩士學位。他的興趣包括計算機視覺、深度學習和機器人技術。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5075

    瀏覽量

    103542
  • 應用程序
    +關注

    關注

    38

    文章

    3292

    瀏覽量

    57851
收藏 人收藏

    評論

    相關推薦

    二維掃碼頭有效掃描距離是多少,影響二維掃描頭掃碼的因素有哪些

    在現(xiàn)代科技快速發(fā)展的今天,二維碼掃描已經(jīng)成為我們?nèi)粘I詈凸ぷ髦胁豢苫蛉钡囊徊糠郑瑹o論是支付、物流追蹤還是信息獲取,都離不開二維碼的掃描。那么,二維掃描頭的有效掃描距離究竟是多少?又有哪些因素會
    的頭像 發(fā)表于 01-15 16:26 ?137次閱讀
    <b class='flag-5'>二維</b>掃碼頭有效掃描距離是多少,影響<b class='flag-5'>二維</b>掃描頭掃碼的因素有哪些

    【「基于大模型的RAG應用開發(fā)與優(yōu)化」閱讀體驗】+大模型微調(diào)技術解讀

    今天學習<基于大模型的RAG應用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學習領域中的一項關鍵技術,它指的是在已經(jīng)預訓練好的大型深度學習模型
    發(fā)表于 01-14 16:51

    RS232接口的二維影像掃描引擎,廣泛用在醫(yī)療設備上掃一二維

    在醫(yī)療設備領域,二維碼的應用日益廣泛,它作為信息的快速傳遞和識別手段,為醫(yī)療管理、患者追蹤、設備維護等環(huán)節(jié)帶來了極大的便利。而在這背后,RS232接口的二維影像掃描引擎扮演著至關重要的角色,它以
    的頭像 發(fā)表于 12-23 16:02 ?161次閱讀
    RS232接口的<b class='flag-5'>二維</b>影像掃描引擎,廣泛用在醫(yī)療設備上掃一<b class='flag-5'>維</b><b class='flag-5'>二維</b>碼

    PDA二維數(shù)據(jù)采集器的工作原理,二維碼采集器有什么推薦產(chǎn)品?

    在現(xiàn)代商業(yè)和物流領域,PDA(便攜式數(shù)據(jù)采集器)已經(jīng)成為不可或缺的工具,尤其是二維碼采集器在信息收集和管理方面發(fā)揮著關鍵作用。本文將介紹PDA二維數(shù)據(jù)采集器的工作原理,并推薦一些優(yōu)秀的
    的頭像 發(fā)表于 12-05 15:17 ?197次閱讀
    PDA<b class='flag-5'>二維</b><b class='flag-5'>數(shù)據(jù)</b>采集器的工作原理,<b class='flag-5'>二維</b>碼采集器有什么推薦產(chǎn)品?

    二維碼識讀設備有哪些類型

    隨著二維碼應用的日益普及,各類二維碼識讀設備也應運而生。這些設備不僅極大地方便了我們的日常生活,也為企業(yè)提供了更加高效便捷的服務。那么,你知道二維碼識讀設備都有哪些類型嗎?讓我們一起來了解一下。據(jù)
    的頭像 發(fā)表于 11-05 16:10 ?305次閱讀
    <b class='flag-5'>二維</b>碼識讀設備有哪些類型

    labview按行讀取二維數(shù)組之后再按讀取順序重新組成二維數(shù)組如何實現(xiàn)?

    labview用了index Array按索引一行行讀取二維數(shù)組之后想再按讀取順序重新組成一個二維數(shù)組如何實現(xiàn),即第一次讀取的作為第一行,第次讀取的作為第行以此類推
    發(fā)表于 10-25 21:06

    AI大模型訓練數(shù)據(jù)來源分析

    AI大模型訓練數(shù)據(jù)來源廣泛且多元化,這些數(shù)據(jù)源對于構建和優(yōu)化AI模型至關重要。以下是對AI大
    的頭像 發(fā)表于 10-23 15:32 ?974次閱讀

    NFC和二維碼掃描合一的設備,用于產(chǎn)線數(shù)據(jù)采集

    在當今數(shù)字化的工業(yè)生產(chǎn)環(huán)境中,高效、準確的數(shù)據(jù)采集對于優(yōu)化生產(chǎn)流程、提升產(chǎn)品質(zhì)量和管理效率至關重要。NFC和二維碼掃描合一的設備應運而生,為產(chǎn)線數(shù)
    的頭像 發(fā)表于 09-05 14:36 ?416次閱讀
    NFC和<b class='flag-5'>二維</b>碼掃描<b class='flag-5'>二</b>合一的設備,用于產(chǎn)線<b class='flag-5'>數(shù)據(jù)</b>采集

    如何為柜式終端設備選配(集成)二維碼模塊?

    的設計與升級過程中,集成高性能的二維碼模塊是提升用戶體驗、優(yōu)化業(yè)務流程的關鍵一環(huán)。首要考慮的是功能需求匹配,根據(jù)具體應用場景,甄選既能讀取傳統(tǒng)二維碼又能識別屏幕碼
    的頭像 發(fā)表于 08-05 15:48 ?321次閱讀
    如何為柜式終端設備選配(集成)<b class='flag-5'>二維</b>碼模塊?

    Labview生成二維

    ?Labview 的一個Demo,生成二維碼。
    發(fā)表于 08-01 17:12 ?7次下載

    深度學習模型訓練過程詳解

    深度學習模型訓練是一個復雜且關鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設計的算法。訓練一個深度學習模型,本質(zhì)上是通過
    的頭像 發(fā)表于 07-01 16:13 ?1450次閱讀

    技術|二維PDOA平面定位方案

    一、方案概述二維平面定位系統(tǒng),采用UWB定位技術,精度可到30cm。通過PDOA算法,可實現(xiàn)單基站二維平面的實時人員定位,增強對危險區(qū)域的管控,有效預防安全事故發(fā)生。面對突發(fā)情況,能做到及時報警響應
    的頭像 發(fā)表于 06-04 14:53 ?1039次閱讀
    技術|<b class='flag-5'>二維</b>PDOA平面定位方案

    二維PDMA可以使用描述符鏈嗎?

    我正在嘗試使用二維描述符連鎖。 編寫了一些二維描述符鏈的代碼。 但我有一些疑問,比如 1.二維 PDMA 可以使用描述符鏈嗎? 2.如果 1 是,請附上一些代碼 我們是否可以使用 2 個結構或只使用 1 個結構即可。
    發(fā)表于 05-31 08:16

    想將一個二維數(shù)據(jù)表放在FLASH中,應如何讀寫?

    我想將一個二維數(shù)據(jù)表放在FLASH中,應如何讀寫
    發(fā)表于 05-17 07:20

    怎么在Framewin里顯示二維碼?

    各位前輩好,剛剛開始使用STemWin。現(xiàn)在一個Framewin里顯示二維碼,在Framewin初始化里調(diào)用二維碼函數(shù)沒有反應。請問需要怎么調(diào)用?
    發(fā)表于 04-16 08:27
    主站蜘蛛池模板: 印度学生xxxxx性14一16 | 麻豆出品国产AV在线观看 | 双性被疯狂灌满精NP | 老色69久久九九精品高潮 | 亚洲免费片 | 亚洲国产综合久久久无码色伦 | 男人边吃奶边挵进去呻吟漫画 | 国产精品99久久久久久人韩国 | 媚药调教被撑到合不拢h | 5566精品资源在线播放 | 国产成人精品区在线观看 | 国产无遮挡又黄又爽在线视频 | 国产精品爽爽久久久久久竹菊 | 日本无码人妻精品一区二区视频 | 囯产精品一区二区三区线 | 尤物久久99国产综合精品 | 人妖xxhdxx| 5G在线观看免费年龄确认18 | 欧美日韩精品一区二区三区高清视频 | 欧美最猛黑人XXXXWWW | 男女性杂交内射妇女BBWXZ | 甜性涩爱dvd | 快播看黄片 | hdsex老太婆70| 久久一本岛在免费线观看2020 | yin荡体育课羞耻play双性 | 久久AV国产麻豆HD真实 | 高清国产激情视频在线观看 | 国产成人精品三级在线 | 8x华人免费视频 | 亚洲精品一线二线三线无人区 | 97在线观看成人免费视频 | 韩国无遮羞禁动漫在线观看96 | 欧美亚洲日韩国产在线在线 | 国产免费人视频在线观看免费 | 捏奶动态图吃奶动态图q | 99RE8国产这里只有精品 | 美女胸禁止18以下看 | 理论片87福利理论电影 | 无遮18禁在线永久免费观看挡 | 特级做A爰片毛片免费看108 |