色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用英特爾開發板部署YOLOv5完成透明物體目標檢測

英特爾物聯網 ? 來源:英特爾物聯網 ? 2024-12-13 11:50 ? 次閱讀

作者:

楊雪峰 英特爾創新大使

哪吒套件簡介

Intel的哪吒(Nezha)開發套件是一款專為邊緣AI物聯網應用設計的高性能計算平臺,搭載了Intel N97處理器、內置IntelUHD Graphics GPU,并提供高達8GB LPDDR5內存與32GB至64GB eMMC存儲選項。它支持Windows和Linux操作系統,具備豐富的接口如千兆以太網HDMI 1.4、USB 3.0/2.0以及GPIO等,兼容樹莓派擴展板。

此外,該套件采用無風扇設計并集成了TPM 2.0安全模塊,適用于自動化、物聯網網關、數字標牌及機器人等多種場景,結合OpenVINO工具包可加速深度學習模型推理,便于開發者快速構建高效且安全的解決方案。

YOLOv5簡介

YOLOv5是YOLO(You Only Look Once)系列中的一種實時對象檢測系統,它以速度快、準確性高而聞名。對于開發者來說,YOLOv5提供了一種簡單易用的方法來創建高效的對象檢測模型。官方GitHub倉庫提供了豐富的資源和示例代碼,可以幫助用戶快速入門并開始構建自己的檢測器。

哪吒套件部署YOLOv5

YOLOv5以其出色的實時性能和高準確性而受到廣泛歡迎,并且官方提供了詳盡的文檔和支持,與其他設備相同,在哪吒套件上部署YOLOv5進行透明物體目標檢測時,用戶仍需注意一些關鍵步驟。

首先,確保開發環境已正確配置,包括安裝所有必要的依賴項如Python、PyTorch等。接著,準備訓練數據集是至關重要的一步,這通常涉及將圖像及其標注信息按照特定格式整理好。對于透明物體檢測這樣的特定任務,可能還需要對模型做一些微調以優化其識別能力。整個過程雖然需要一定的技術背景支持,但借助于豐富的在線資源和社區幫助,即使是初次嘗試者也能順利完成部署。

下面的步驟可以讓你在搭載在哪吒套件的windows平臺快速上手訓練自己的模型。

搭配環境與安裝依賴

在win+R中打開cmd,輸入以下代碼創建并進入一個名為yolov5s, python3.8版本的虛擬環境:

conda create -n yolov5s python=3.8
conda activate yolov5s

克隆倉庫:從官方GitHub倉庫克隆YOLOv5項目到本地機器。

git clone https://github.com/ultralytics/yolov5
cd yolov5

然后輸入以下代碼,即可自動下載安裝所有需要的庫

pip install -r requirements.txt

如果下載速度過慢,可能會導致報錯,可以復制下面代碼(清華源)到cmd中運行,然后在重新進行上面下載庫的步驟:

conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
conda config --ad
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/msys2/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/bioconda/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/menpo/
conda config --set show_channel_urls yes

Trans10k數據集準備

1.數據集下載

Trans10K是一個公開的大規模透明物體分割數據集,包含10,428張真實場景圖像,每張都經過手動標注。它提供了多樣化的透明物體樣本,如杯子、瓶子和窗戶等。數據集分為訓練(5,000張)、驗證(1,000張)和測試(4,428張)三部分,并進一步細分為簡單和困難類別,整個數據集大小約為10.6GB。

可以使用相應的SDK進行下載:

pip install openxlab #安裝
pip install -U openxlab #版本升級
import openxlab
openxlab.login(ak=, sk=) #進行登錄,輸入對應的AK/SK
from openxlab.dataset import info
info(dataset_repo='OpenDataLab/Trans10K') #數據集信息及文件列表查看
from openxlab.dataset import get
get(dataset_repo='OpenDataLab/Trans10K', target_path='/path/to/local/folder/') # 數據集下載
from openxlab.dataset import download
download(dataset_repo='OpenDataLab/Trans10K',source_path='/README.md', target_path='/path/to/local/folder') #數據集文件下載

下載后解壓即可。

2.格式化數據

Trans10K數據集通常包含圖像及其對應的標注文件。為了與YOLOv5兼容,您需要確保每個圖像都有一個對應的.txt文件,其中包含目標框的位置信息。格式如下:

class_index x_center y_center width height

所有坐標都是相對于圖像尺寸的歸一化值(0.0到1.0之間)。

然而Trans10K的標注格式不是YOLO格式。

a6e96710-b86c-11ef-93f3-92fbcf53809c.png

這就需要編寫一個腳本來將標注轉換為YOLO格式。轉換腳本如下:

  import cv2
  import numpy as np
  import os
  from pathlib import Path
  path_to_masks = 'path/to/mask'
  path_to_save_yolo_labels = ' path/to/mask/label'
  def convert_mask_to_bbox(mask_path, save_path):
    # 創建保存路徑
    Path(save_path).mkdir(parents=True, exist_ok=True)
    
    # 遍歷 mask 文件
    for mask_file in os.listdir(mask_path):
      if mask_file.endswith(".png"): # mask 以 .png 格式保存
        mask = cv2.imread(os.path.join(mask_path, mask_file), cv2.IMREAD_GRAYSCALE)
        contours, _ = cv2.findContours(mask, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
        
        # 獲取文件名,無擴展名
        filename = os.path.splitext(mask_file)[0]
        bbox_file = open(os.path.join(save_path, filename + ".txt"), 'w')
        
        for contour in contours:
          x, y, w, h = cv2.boundingRect(contour)
          # YOLO 格式:class x_center y_center width height (歸一化到[0,1]范圍)
          img_height, img_width = mask.shape
          x_center = (x + w / 2) / img_width
          y_center = (y + h / 2) / img_height
          width = w / img_width
          height = h / img_height
          # 假設所有目標都是同一類 (class = 0)
          bbox_file.write(f"0 {x_center} {y_center} {width} {height}
")
                bbox_file.close()
  # 使用示例
  convert_mask_to_bbox(path_to_masks, path_to_save_yolo_labels)

3.組織文件結構

按照YOLOv5的要求組織文件結構。需要以下目錄結構:

/path/to/dataset/


├── images/
│  ├── train/
│  └── val/
└── labels/
  ├── train/
  └── val/

images/ 目錄下存放圖像文件。

labels/ 目錄下存放相應的標注文件(.txt)。

4.配置data.yaml文件

編輯YOLOv5項目中的data.yaml文件或者新建一個trans10k_data.yaml,指定數據集路徑及類別信息,如下所示。

train: /path/to/dataset/images/train # 訓練圖片路徑
val: /path/to/dataset/images/val   # 驗證圖片路徑
nc: 1 # 類別數量,假設只有一個類別
names: ['transparent_object'] # 類別名稱列表

啟動訓練

使用以下命令啟動訓練過程。您可以根據硬件性能調整圖片大小(--img)、批量大小(--batch)等選項。

python train.py --img 640 --batch 16 --epochs 50 --data data/trans10k_data.yaml --cfg models/yolov5s.yaml --weights yolov5s.pt

訓練完成后,就得到了一個能夠檢測透明目標的模型。

總結

通過遵循上述步驟,即使是初學者也能迅速掌握YOLOv5的訓練方法并在Intel的哪吒(Nezha)開發套件上成功運行。哪吒套件憑借其高性能的Intel N97處理器、內置的Intel UHD Graphics GPU以及高達8GB的LPDDR5內存,為實時目標檢測提供了強大的計算支持。

借助YOLOv5的強大功能以及個性化的Trans10K數據集,用戶能夠快速開發出針對透明物體的高度精確的對象檢測模型。哪吒套件的無風扇設計和豐富的接口選項比如千兆以太網、HDMI 1.4、USB 3.0/2.0等,使其非常適合部署在各種邊緣計算環境中,無論是智能監控、工業自動化還是其他物聯網應用,都能提供可靠且高效的解決方案。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英特爾
    +關注

    關注

    61

    文章

    9949

    瀏覽量

    171692
  • 物聯網
    +關注

    關注

    2909

    文章

    44557

    瀏覽量

    372757
  • 開發板
    +關注

    關注

    25

    文章

    5032

    瀏覽量

    97371
  • 目標檢測
    +關注

    關注

    0

    文章

    209

    瀏覽量

    15605

原文標題:開發者實戰|英特爾開發板部署YOLOv5:完成透明物體目標檢測

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    YOLOv5】LabVIEW+YOLOv5快速實現實時物體識別(Object Detection)含源碼

    前面我們給大家介紹了基于LabVIEW+YOLOv3/YOLOv4的物體識別(對象檢測),今天接著上次的內容再來看看YOLOv5。本次主要是
    的頭像 發表于 03-13 16:01 ?2154次閱讀

    YOLOv5】LabVIEW+TensorRT的yolov5部署實戰(含源碼)

    今天主要和大家分享在LabVIEW中使用純TensoRT工具包快速部署并實現yolov5物體識別
    的頭像 發表于 08-21 22:20 ?1316次閱讀
    【<b class='flag-5'>YOLOv5</b>】LabVIEW+TensorRT的<b class='flag-5'>yolov5</b><b class='flag-5'>部署</b>實戰(含源碼)

    在RK3568教學實驗箱上實現基于YOLOV5的算法物體識別案例詳解

    Head)。 整個 YOLOv5 網絡所作的工作就是: 特征提取-特征加強-預測特征點對應的物體情況。 YOLOv5目標檢測流程
    發表于 12-03 14:56

    如何在您的英特爾? Edison 開發板上更新(刷新)固件

    的任何 LED 燈都沒有亮。如果 LED 燈亮起,請完成設置英特爾? Edison 開發板(帶有 Arduino* 擴展板)或設置英特爾? Edison
    發表于 06-15 15:24

    YOLOv5全面解析教程之目標檢測模型精確度評估

    ):分類器把負例正確的分類-預測為負例(yolov5中沒有應用到)  yolov5中沒有應用TN的原因: TN代表的是所有可能的未正確檢測到的邊界框。然而在yolo在目標
    發表于 11-21 16:40

    如何YOLOv5測試代碼?

    使用文檔“使用 YOLOv5 進行對象檢測”我試圖從文檔第 10 頁訪問以下鏈接(在 i.MX8MP 上部署 yolov5s 的步驟 - NXP 社區) ...但是這樣做時會被拒絕訪問
    發表于 05-18 06:08

    基于YOLOv5目標檢測文檔進行的時候出錯如何解決?

    你好: 按Milk-V Duo開發板實戰——基于YOLOv5目標檢測 安裝好yolov5環境,在執行main.py的時候會出錯,能否幫忙看
    發表于 09-18 07:47

    英特爾獨立顯卡上部署YOLOv5 v7.0版實時實例分割模型

    本文將介紹在基于 OpenVINO 在英特爾獨立顯卡上部署 YOLOv5 實時實例分割模型的全流程,并提供完整范例代碼供讀者使用。
    的頭像 發表于 12-20 11:32 ?4057次閱讀

    yolov5訓練部署全鏈路教程

    本教程針對目標檢測算法yolov5的訓練和部署到EASY-EAI-Nano(RV1126)進行說明。
    的頭像 發表于 01-05 18:00 ?3198次閱讀
    <b class='flag-5'>yolov5</b>訓練<b class='flag-5'>部署</b>全鏈路教程

    使用旭日X3派的BPU部署Yolov5

    本次主要介紹在旭日x3的BPU中部署yolov5。首先在ubuntu20.04安裝yolov5,并運行yolov5并使用pytoch的pt模型文件轉ONNX。
    的頭像 發表于 04-26 14:20 ?880次閱讀
    使用旭日X3派的BPU<b class='flag-5'>部署</b><b class='flag-5'>Yolov5</b>

    在AI愛克斯開發板上用OpenVINO?加速YOLOv8目標檢測模型

    《在 AI 愛克斯開發板上用 OpenVINO 加速 YOLOv8 分類模型》介紹了在 AI 愛克斯開發板上使用 OpenVINO 開發套件部署
    的頭像 發表于 05-12 09:08 ?1311次閱讀
    在AI愛克斯<b class='flag-5'>開發板</b>上用OpenVINO?加速<b class='flag-5'>YOLOv</b>8<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>模型

    AI愛克斯開發板上使用OpenVINO加速YOLOv8目標檢測模型

    《在AI愛克斯開發板上用OpenVINO加速YOLOv8分類模型》介紹了在AI愛克斯開發板上使用OpenVINO 開發套件部署并測評
    的頭像 發表于 05-26 11:03 ?1239次閱讀
    AI愛克斯<b class='flag-5'>開發板</b>上使用OpenVINO加速<b class='flag-5'>YOLOv</b>8<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>模型

    【教程】yolov5訓練部署全鏈路教程

    本教程針對目標檢測算法yolov5的訓練和部署到EASY-EAI-Nano(RV1126)進行說明,而數據標注方法可以參考我們往期的文章《Labelimg的安裝與使用》。
    的頭像 發表于 01-29 15:25 ?3414次閱讀
    【教程】<b class='flag-5'>yolov5</b>訓練<b class='flag-5'>部署</b>全鏈路教程

    在樹莓派上部署YOLOv5進行動物目標檢測的完整流程

    卓越的性能。本文將詳細介紹如何在性能更強的計算機上訓練YOLOv5模型,并將訓練好的模型部署到樹莓派4B上,通過樹莓派的攝像頭進行實時動物目標檢測。 一、在電腦上訓練
    的頭像 發表于 11-11 10:38 ?910次閱讀
    在樹莓派上<b class='flag-5'>部署</b><b class='flag-5'>YOLOv5</b>進行動物<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>的完整流程

    使用英特爾哪吒開發套件部署YOLOv5完成透明物體目標檢測

    英特爾的哪吒(Nezha)開發套件是一款專為邊緣AI和物聯網應用設計的高性能計算平臺,搭載了英特爾 N97處理器、內置英特爾 UHD Graphics GPU,并提供高達8GB LPD
    的頭像 發表于 11-25 17:15 ?211次閱讀
    使用<b class='flag-5'>英特爾</b>哪吒<b class='flag-5'>開發</b>套件<b class='flag-5'>部署</b><b class='flag-5'>YOLOv5</b><b class='flag-5'>完成</b><b class='flag-5'>透明</b><b class='flag-5'>物體</b><b class='flag-5'>目標</b><b class='flag-5'>檢測</b>
    主站蜘蛛池模板: 性刺激欧美三级在线现看中文| 天天影视网网色色欲| 男人被绑着强行摸j| 暖暖视频中国在线观看免费韩国| 内射少妇三洞齐开| 日本午夜精品理论片A级APP发布| 色色噜一噜| 亚洲精品视频在线观看免费| 有码在线播放| 99久久免费精品国产| 父皇轻点插好疼H限| 国产精品麻豆a在线播放| 娇小亚裔被两个黑人| 美女扒开尿孔| 色色色999| 亚洲一卡久久4卡5卡6卡7卡| 97色伦图片7778久久| 古代荡女丫鬟高H辣文纯肉| 海角国精产品一区一区三区糖心| 久久中文字幕人妻AV熟女| 欧美性色xo影院69| 亚洲成人综合在线| 67194免费入口| 国产精品国产三级国产专区53| 久草在线在线精品观看| 欧美色图一区二区三区| 午夜影院视费x看| 18日本人XXXXXX18| 国产 亚洲 另类 欧美 在线 | 在线观看中文字幕码2021不用下载 | 久久国内精品| 人人草影院| 亚洲一区二区三区高清网| www.色片| 久草在线福利资站免费视频| 日本一二三区在线视频| 夜色55夜色66亚洲精品网站| 动漫美女被羞羞动漫怪物| 久久久久久九九| 偷拍 自怕 亚洲 在线| 战狼4在线观看完免费完整版|