色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于深度學習的目標檢測算法

新機器視覺 ? 來源:CSDN技術社區 ? 作者:透視AI ? 2021-04-30 10:22 ? 次閱讀

整體框架

df9fcc58-a929-11eb-9728-12bb97331649.jpg

目標檢測算法主要包括:【兩階段】目標檢測算法、【多階段】目標檢測算法、【單階段】目標檢測算法

什么是兩階段目標檢測算法,與單階段目標檢測有什么區別?

兩階段目標檢測算法因需要進行兩階段的處理:1)候選區域的獲取,2)候選區域分類和回歸,也稱為基于區域(Region-based)的方。與單階段目標檢測算法的區別:通過聯合解碼同時獲取候選區域、類別

什么是多階段目標檢測算法?

【兩階段】和【多階段】目標檢測算法統稱級聯目標檢測算法,【多階段】目標檢測算法通過多次重復進行步驟:1)候選區域的獲取,2)候選區域分類和回歸,反復修正候選區域

dfab6360-a929-11eb-9728-12bb97331649.jpg

根據是否屬于錨框分為:

1、Anchor-Free:

CornerNet

FCOS

TTFNet

YOLOv1(注意)

2、Anchor-based:

RetinaNet

YOLOv2-v5

PP-YOLO

SSD

主要考慮問題

1、準確性 2、實時性 3、多尺度 4、標簽方案 5、目標重疊 6、模型訓練 7、重復編碼 8、數據增強 9、樣本不平衡

兩階段目標檢測算法

RCNN

1、模型通過【選擇性搜索算法】獲取潛在的候選區域 2、截取原圖每個候選區域并resize輸入到模型中進行特征抽取 3、使用SVM進行分類,以及進行bounding box 回歸

dfb5f5c8-a929-11eb-9728-12bb97331649.jpg

存在問題:

重復編碼:由于候選區域存在重疊,模型需要重復進行重疊區域的特征圖提取,計算冗余

模型訓練:由于特征抽取模型和區域的分類回歸模型分開訓練,無法進行端到端的模型訓練,訓練過程需要提取每個包含重疊區域的候選區域特征并保存用于分類和回歸訓練

實時性差:重復編碼導致實時性不佳,【選擇性搜索算法】耗時嚴重

Fast-RCNN

考慮到RCNN的缺點,Fast-RCNN來了! 1、模型依舊通過【選擇性搜索算法】獲取潛在的候選區域

2、將原圖通過特征抽取模型進行一次的共享特征圖提取,避免了重復編碼

3、在特征圖中找到每一個候選區域對應的區域并截取【區域特征圖】,ROI pooling層中將每個【區域特征圖】池化到統一大小

4、分別進行softmax分類(使用softmax代替了RCNN里面的多個SVM分類器)和bbox回歸

e009a9f2-a929-11eb-9728-12bb97331649.jpg

主要優點:

1、可以進行端到端模型訓練 2、不需要存儲中間特征向量用于SVM分類和回歸模型訓練 3、使用更高效的SPPnet特征提取網絡

存在問題:

實時性差:選擇性搜索獲取候選區域耗時,主要通過貪婪算法合并低級特征超像素,單張圖片耗時接近2s,且無法使用GPU加速

Faster R-CNN

使用RPN網絡代替Fast RCNN使用的選擇性搜索進行候選區域的提取,相當于Faster R-CNN=RPN+Fast RCNN,且RPN和Fast RCNN共享卷積層。

1、多尺度目標:通過RPN網絡候選區域,并使用不同大小和長寬比的anchors來解決多尺度問題

2、通過計算anchors與真實框的交并比IOU,并通過閾值建立正負樣本

3、樣本不平衡:每批次隨機采樣256個anchors進行邊框回歸訓練,并盡可能保證正負樣本數相同,避免負樣本過多導致的梯度統治問題

論文:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

e04b3d5e-a929-11eb-9728-12bb97331649.jpg

e0574734-a929-11eb-9728-12bb97331649.jpg

多階段目標檢測算法

Cascade R-CNN

通過分析Faster RCNN在目標候選區域的位置修正能力, 如下圖基于單個檢測器的可優化性但優化的程度有限,通過多次將預測區域作為候選區域進行修正,使得輸出的預測區域與真實標簽區域的IOU逐級遞增

e060e19a-a929-11eb-9728-12bb97331649.png

主要優點:

1、準確性:碾壓各種單雙階段目標檢測算法,采用RoIAlign取代RoIPooling 2、多尺度:通過FPN網絡集成多尺度特征圖,利用歸一化尺度偏差方法緩解不同尺度對Loss的影響程度 3、實時性:去除了Fater RCNN的全連接層,取而代之采用FCN網絡,相比Fater RCNN,具有更少的模型參數和計算時間

主要不足:

e0961a0e-a929-11eb-9728-12bb97331649.jpg

單階段目標檢測算法

編碼方式

1、基于中心坐標

方案1

通過計算IOU或者長寬比閾值篩選每個anchor位置對應的target,可能過濾比較極端的target,但緩解目標重疊情況下的編碼重疊問題 通過對應anchor找到中心坐標位置(x,y)

方案2

通過iou最大值計算每個target對應的anchor位置,保證每個target至少對應一個,目標少的情況下但容易造成目標稀疏編碼, 通過對應target找到中心坐標位置(x,y),YOLOv5中通過中心坐標結合四舍五入進行多中心坐標映射緩解目標稀疏問題 方案3 同時利用方案1和方案2,保證每個target至少對應一個anchor區域

YOLOv1

雖然是單階段目標檢測開山之作,但真正的鼻祖應該是Faster RCNN的RPN

e0ba6620-a929-11eb-9728-12bb97331649.png

主要優點:

1、快 2、采用全局特征進行推理,由于利用全局上下文信息,相比于滑動窗口和建議框方法,對背景的判斷更準確 3、泛化性,訓練好的模型在新的領域或者不期望的輸入情況下依然具有較好的效果

主要不足:

1、準確性:與Faster RCNN相比,correcct反映了YOLOv1準確率較低,background反映了召回率較高,但總體性能F1較低,雖然loss采用長寬平方根進行回歸,試圖降低大目標對loss的主導地位,但小目標的微小偏差對IOU的影響更嚴重,導致小目標定位不準

e0c34358-a929-11eb-9728-12bb97331649.jpg

2、目標重疊:雖然通過每個S*S的網格點設置了2個預測框用于回歸訓練,但是每個網格點設置了一種類別,無法解決不同類別目標重疊率較大,導致映射到相同網格點上的問題

3、多尺度:由于模型只是簡單使用下采樣獲得的粗糙特征,很難將其推廣到具有新的或不同尋常的寬高比或配置的對象

4、實時性:雖然與Faster RCNN相比,速度很快,但還可以更快,主要是由于v1中使用了全連接網絡,不是全卷積網絡

全連接層參數=7x7x1024x4096+4096X7x7x30=2x10^8

e0f959ca-a929-11eb-9728-12bb97331649.jpg

SSD

通過使用FCN全卷積神經網絡,并利用不同尺度的特征圖進行目標檢測,在速度和精度都得到了極大提升

主要優點

1、實時性:相比YOlOv1更快,因為去除了全連接層

2、標簽方案:通過預測類別置信度和相對固定尺度集合的先驗框的偏差,能夠有效均衡不同尺度對loss的影響程度

3、多尺度:通過使用多個特征圖和對應不同尺度的錨框進行多尺度目標預測

4、數據增強:通過隨機裁剪的方式進行數據增強提高模型的魯棒性

5、樣本不平衡:通過困難樣本挖掘,采用負樣本中置信度最高的先驗框進行訓練,并設置正負樣本比例為1:3,使得模型訓練收斂更快

e1061bb0-a929-11eb-9728-12bb97331649.jpg

主要不足

1、通過人工先驗設置的不同尺度的錨框無法適應真實的目標框的尺度分布 2、使用的多個特征圖由于高分辨率的特征圖不能有效地結合高層特征

YOLOv2

針對YOLOv1在解決多尺度和實時性方面的不足,提出了YOLOv2

e111aa2a-a929-11eb-9728-12bb97331649.jpg

主要優點:

1、更好 1)Batch Normalization:使得性能極大提升;

2)Higher Resolution Classifier:使預訓練分類任務分辨率與目標檢測的分辨率一致;

3)Convolutional With Anchor Boxes:使用全卷積神經網絡預測偏差,而非具體的坐標,模型更容易收斂;

4)Dimension Clusters:通過聚類算法設置錨框的尺度,獲得更好的先驗框,緩解了不同尺度對loss的影響變化;

5)Fine-Grained Features:通過簡單相加融合了低層的圖像特征;

6)Multi-Scale Training:通過使用全卷積網絡使得模型支持多種尺度圖像的輸入并輪流進行訓練

e1256e16-a929-11eb-9728-12bb97331649.jpg

2、更快,構建Darknet-19代替VGG-16作為backbone具有更好的性能

e16bca0a-a929-11eb-9728-12bb97331649.jpg

主要不足

1、多尺度:在模型維度只是簡單融合底層特征,在輸入維度進行多尺度圖像分辨率的輸入訓練,不能克服模型本身感受野導致的多尺度誤差

RetinaNet

論文:Focal Loss for Dense Object Detection

主要優點

1、多尺度:借鑒FPN網絡通過自下而上、自上而下的特征提取網絡,并通過無代價的橫向連接構建增強特征提取網絡,利用不同尺度的特征圖檢測不同大小的目標,利用了底層高分率的特征圖有效的提高了模型對小尺度目標的檢測精度 2、樣本不平衡:引入Focal Loss用于候選框的【類別預測】,克服正負樣本不平衡的影響及加大困難樣本的權重

主要不足

1、實時性:網絡使用ResNet-101作為主干特征提取網絡,檢測效率略微不足

e1bc0e52-a929-11eb-9728-12bb97331649.jpg

YOLOv3

論文:YOLOv3: An Incremental Improvement

主要優點

1、實時性:相比RetinaNet,YOLOv3通過犧牲檢測精度,使用Darknet主干特征提取網絡而不是Resnet101,從而獲取更快的檢測速度

2、多尺度:相比于YOLOv1-v2,與RetinaNet采用相同的FPN網絡作為增強特征提取網絡得到更高的檢測精度

3、目標重疊:通過使用邏輯回歸和二分類交叉熵損失函數進行類別預測,將每個候選框進行多標簽分類,解決單個檢測框可能同時包含多個目標的可能

主要不足

1、準確率:主要因為Darknet的特征提取不夠強,未進行精細化結構模型設計

e1fdf90c-a929-11eb-9728-12bb97331649.jpg

e20a3c44-a929-11eb-9728-12bb97331649.jpg

YOLOv4

論文:YOLOv4: Optimal Speed and Accuracy of Object Detection 鑒于YOLOv3的缺點,YOLOv5進行了Darknet53主干特征提取網絡等一系列改進

主要優點

1、實時性:借鑒CSPNet網絡結構將Darknet53改進為CSPDarknet53使模型參數和計算時間更短

e242d34c-a929-11eb-9728-12bb97331649.jpg

2、多尺度:頸部分別引入PAN和SPP網絡結構作為增強特征提取網絡,能夠有效多尺度特征,相比于引入FPN網絡準確度更高

3、數據增強:引入Mosaic數據增強,在使用BN的時候可以有效降低batch_size的影響

4、模型訓練,采用IOU:GIoU,DIoU,CIoU作為目標框的回歸,與YOLOv3使用的平方差損失相比具有更高的檢測精度

e26bb7b2-a929-11eb-9728-12bb97331649.png

e2760f0a-a929-11eb-9728-12bb97331649.jpg

YOLOv5

為了進一步提升YOLOv4的檢測速度,YOLOv5采用了更輕量的網絡結構

主要優點

1、多尺度:使用FPN增強特征提取網絡代替PAN,使模型更簡單,速度更快 2、目標重疊:使用四舍五入的方法進行臨近位置查找,使目標映射到周圍的多個中心網格點

主要不足

1、通過長寬比篩選并過濾了大小和長寬比較極端的真實目標框,而這些恰恰在真實檢測任務極為重要,和重點解決的檢測問題

e27fcb1c-a929-11eb-9728-12bb97331649.jpg

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 檢測器
    +關注

    關注

    1

    文章

    863

    瀏覽量

    47678
  • SVM
    SVM
    +關注

    關注

    0

    文章

    154

    瀏覽量

    32436
  • 目標檢測
    +關注

    關注

    0

    文章

    209

    瀏覽量

    15605
  • 卷積神經網絡

    關注

    4

    文章

    367

    瀏覽量

    11863

原文標題:基于深度學習的目標檢測算法面試必備(RCNN~YOLOv5)

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    深度識別算法包括哪些內容

    :CNN是深度學習中處理圖像和視頻等具有網格結構數據的主要算法。它通過卷積層、池化層和全連接層等組件,實現對圖像特征的自動提取和識別。 應用領域 :CNN在圖像識別、目標
    的頭像 發表于 09-10 15:28 ?365次閱讀

    慧視小目標識別算法 解決目標檢測中的老大難問題

    隨著深度學習和人工智能技術的興起與技術成熟,一大批如FasterR-CNN、RetinaNet、YOLO等可以在工業界使用的目標檢測算法已逐步成熟并進入實際應用,大多數場景下的
    的頭像 發表于 07-17 08:29 ?477次閱讀
    慧視小<b class='flag-5'>目標</b>識別<b class='flag-5'>算法</b>   解決<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>中的老大難問題

    深度學習算法在嵌入式平臺上的部署

    隨著人工智能技術的飛速發展,深度學習算法在各個領域的應用日益廣泛。然而,將深度學習算法部署到資源
    的頭像 發表于 07-15 10:03 ?1331次閱讀

    利用Matlab函數實現深度學習算法

    在Matlab中實現深度學習算法是一個復雜但強大的過程,可以應用于各種領域,如圖像識別、自然語言處理、時間序列預測等。這里,我將概述一個基本的流程,包括環境設置、數據準備、模型設計、訓練過程、以及測試和評估,并提供一個基于Mat
    的頭像 發表于 07-14 14:21 ?2166次閱讀

    深度學習在工業機器視覺檢測中的應用

    識別等任務。傳統的機器視覺檢測方法通常依賴于手工設計的特征和固定的算法,難以應對復雜多變的工業環境。而深度學習的引入,為工業機器視覺檢測帶來
    的頭像 發表于 07-08 10:40 ?1043次閱讀

    基于深度學習的小目標檢測

    在計算機視覺領域,目標檢測一直是研究的熱點和難點之一。特別是在小目標檢測方面,由于小目標在圖像中所占比例小、特征不明顯,使得
    的頭像 發表于 07-04 17:25 ?861次閱讀

    口罩佩戴檢測算法

    口罩佩戴檢測算法基于YOLOv5在圖像識別檢測領域的優異性能,本文研究基于基于YOLOv5的口罩佩自動戴檢測方法。首先從網絡和真實生活中中尋找并采集不同場景人群口罩佩戴的圖片約500張并自建數據集
    的頭像 發表于 07-01 20:20 ?316次閱讀
    口罩佩戴<b class='flag-5'>檢測算法</b>

    人員跌倒識別檢測算法

    人員跌倒識別檢測算法是基于視頻的檢測方法,通過對目標人體監測,當目標人體出現突然倒地行為時,自動監測并觸發報警。人員跌倒識別檢測算法基于計算
    的頭像 發表于 06-30 11:47 ?448次閱讀
    人員跌倒識別<b class='flag-5'>檢測算法</b>

    安全帽佩戴檢測算法

    安全帽佩戴監控是鐵路工程施工人員安全管理中的重點和難點,它對檢測算法的準確 率與檢測速度都有較高的要求。本文提出一種基于神經網絡架構搜索的安全帽佩戴檢測算法 NAS-YOLO。該神經網絡架構由上
    的頭像 發表于 06-26 22:22 ?396次閱讀
    安全帽佩戴<b class='flag-5'>檢測算法</b>

    深入了解目標檢測深度學習算法的技術細節

    本文將討論目標檢測的基本方法(窮盡搜索、R-CNN、FastR-CNN和FasterR-CNN),并嘗試理解每個模型的技術細節。為了讓經驗水平各不相同的讀者都能夠理解,文章不會使用任何公式來進行講解
    的頭像 發表于 04-30 08:27 ?336次閱讀
    深入了解<b class='flag-5'>目標</b><b class='flag-5'>檢測深度</b><b class='flag-5'>學習</b><b class='flag-5'>算法</b>的技術細節

    深度解析深度學習下的語義SLAM

    隨著深度學習技術的興起,計算機視覺的許多傳統領域都取得了突破性進展,例如目標檢測、識別和分類等領域。近年來,研究人員開始在視覺SLAM算法
    發表于 04-23 17:18 ?1285次閱讀
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>學習</b>下的語義SLAM

    深度學習檢測目標常用方法

    深度學習的效果在某種意義上是靠大量數據喂出來的,小目標檢測的性能同樣也可以通過增加訓練集中小目標樣本的種類和數量來提升。
    發表于 03-18 09:57 ?711次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>檢測</b>小<b class='flag-5'>目標</b>常用方法

    基于深度學習的芯片缺陷檢測梳理分析

    雖然表面缺陷檢測技術已經不斷從學術研究走向成熟的工業應用,但是依然有一些需要解決的問題。基于以上分析可以發現,由于芯片表面缺陷的獨特性質,通用目標檢測算法不適合直接應用于芯片表面缺陷檢測
    發表于 02-25 14:30 ?1486次閱讀
    基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的芯片缺陷<b class='flag-5'>檢測</b>梳理分析

    在ELF 1 開發板上實現讀取攝像頭視頻進行目標檢測

    當前,將AI或深度學習算法(如分類、目標檢測和軌跡追蹤)部署到嵌入式設備,進而實現邊緣計算,正成為輕量級
    的頭像 發表于 01-24 10:38 ?686次閱讀
    在ELF 1 開發板上實現讀取攝像頭視頻進行<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>

    目前主流的深度學習算法模型和應用案例

    深度學習在科學計算中獲得了廣泛的普及,其算法被廣泛用于解決復雜問題的行業。所有深度學習算法都使用
    的頭像 發表于 01-03 10:28 ?1927次閱讀
    目前主流的<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>算法</b>模型和應用案例
    主站蜘蛛池模板: 91久久偷偷看嫩草影院无费| 一品道门在线视频| 亚洲mv在线观看| 亚洲一区国产| 51xx午夜影视福利| 白丝女仆被强扒内裤| 国产成人8x视频一区二区| 国产深夜福利视频在线| 久久久国产精品免费A片3D| 妺妺窝人体色WWW偷窥女厕| 乳欲性高清在线| 午夜亚洲国产理论片二级港台二级 | 吉吉影音先锋av资源网| 开心色99xxxx开心色| 欧美成人免费观看久久| 肉多荤文高h羞耻校园| 亚洲精品在线影院| 91chinesevideo| 高跟丝袜岳第一次| 精品区2区3区4区产品乱码9| 男gv纯肉免费视频| 我的家庭女教师| 在线涩涩免费观看国产精品| 菠萝菠萝蜜视频在线看1| 国产亚洲精品福利视频| 美女脱衣服搞鸡| 无码AV免费精品一区二区三区| 越南女 黑人 痛苦 大叫| 97视频在线观看免费播放| 国产免费久久精品国产传媒| 美女漏bb| 丫鬟粗大狠狠贯穿h| 999在线观看精品免费| 国产精品女上位在线观看| 裸妇厨房风流在线观看| 四虎国产精品永久免费入口| 伊人成色综合人网| 国产 亚洲 日韩 欧美 在线观看| 久爱精品亚洲电影午夜| 色悠久久久久综合欧美99| 中文字幕人成人乱码亚洲影视 |