色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一起來看看YOLOv8的結構亮點

新機器視覺 ? 來源:集智書童 ? 2023-01-11 09:46 ? 次閱讀

導讀

出品YOLOv5的公司發布了最新的YOLOv8!一起來看看YOLOv8的結構亮點。

回顧一下YOLOv5,不然沒機會了

這里粗略回顧一下,這里直接提供YOLOv5的整理的結構圖吧:

Backbone:CSPDarkNet結構,主要結構思想的體現在C3模塊,這里也是梯度分流的主要思想所在的地方;

PAN-FPN:雙流的FPN,必須香,也必須快,但是量化還是有些需要圖優化才可以達到最優的性能,比如cat前后的scale優化等等,這里除了上采樣、CBS卷積模塊,最為主要的還有C3模塊(記住這個C3模塊哦);

Head:Coupled Head+Anchor-base,毫無疑問,YOLOv3、YOLOv4、YOLOv5、YOLOv7都是Anchor-Base的,后面會變嗎?

Loss:分類用BEC Loss,回歸用CIoU Loss。

e1581eac-911b-11ed-bfe3-dac502259ad0.png

話不多說,直接YOLOv8吧!

直接上YOLOv8的結構圖吧,小伙伴們可以直接和YOLOv5進行對比,看看能找到或者猜到有什么不同的地方?

e16d5c72-911b-11ed-bfe3-dac502259ad0.png

下面就直接揭曉答案吧,具體改進如下:

Backbone:使用的依舊是CSP的思想,不過YOLOv5中的C3模塊被替換成了C2f模塊,實現了進一步的輕量化,同時YOLOv8依舊使用了YOLOv5等架構中使用的SPPF模塊;

PAN-FPN:毫無疑問YOLOv8依舊使用了PAN的思想,不過通過對比YOLOv5與YOLOv8的結構圖可以看到,YOLOv8將YOLOv5中PAN-FPN上采樣階段中的卷積結構刪除了,同時也將C3模塊替換為了C2f模塊;

Decoupled-Head:是不是嗅到了不一樣的味道?是的,YOLOv8走向了Decoupled-Head;

Anchor-Free:YOLOv8拋棄了以往的Anchor-Base,使用了Anchor-Free的思想;

損失函數:YOLOv8使用VFL Loss作為分類損失,使用DFL Loss+CIOU Loss作為分類損失;

樣本匹配:YOLOv8拋棄了以往的IOU匹配或者單邊比例的分配方式,而是使用了Task-Aligned Assigner匹配方式。

1、C2f模塊是什么?與C3有什么區別?

我們不著急,先看一下C3模塊的結構圖,然后再對比與C2f的具體的區別。針對C3模塊,其主要是借助CSPNet提取分流的思想,同時結合殘差結構的思想,設計了所謂的C3 Block,這里的CSP主分支梯度模塊為BottleNeck模塊,也就是所謂的殘差模塊。同時堆疊的個數由參數n來進行控制,也就是說不同規模的模型,n的值是有變化的。

e1778ac6-911b-11ed-bfe3-dac502259ad0.png

其實這里的梯度流主分支,可以是任何之前你學習過的模塊,比如,美團提出的YOLOv6中就是用來重參模塊RepVGGBlock來替換BottleNeck Block來作為主要的梯度流分支,而百度提出的PP-YOLOE則是使用了RepResNet-Block來替換BottleNeck Block來作為主要的梯度流分支。而YOLOv7則是使用了ELAN Block來替換BottleNeck Block來作為主要的梯度流分支。

C3模塊的Pytorch的實現如下:

classC3(nn.Module):
#CSPBottleneckwith3convolutions
def__init__(self,c1,c2,n=1,shortcut=True,g=1,e=0.5):#ch_in,ch_out,number,shortcut,groups,expansion
super().__init__()
c_=int(c2*e)#hiddenchannels
self.cv1=Conv(c1,c_,1,1)
self.cv2=Conv(c1,c_,1,1)
self.cv3=Conv(2*c_,c2,1)#optionalact=FReLU(c2)
self.m=nn.Sequential(*(Bottleneck(c_,c_,shortcut,g,e=1.0)for_inrange(n)))

defforward(self,x):
returnself.cv3(torch.cat((self.m(self.cv1(x)),self.cv2(x)),1))

下面就簡單說一下C2f模塊,通過C3模塊的代碼以及結構圖可以看到,C3模塊和名字思路一致,在模塊中使用了3個卷積模塊(Conv+BN+SiLU),以及n個BottleNeck。

通過C3代碼可以看出,對于cv1卷積和cv2卷積的通道數是一致的,而cv3的輸入通道數是前者的2倍,因為cv3的輸入是由主梯度流分支(BottleNeck分支)依舊次梯度流分支(CBS,cv2分支)cat得到的,因此是2倍的通道數,而輸出則是一樣的。

不妨我們再看一下YOLOv7中的模塊:

e1815cae-911b-11ed-bfe3-dac502259ad0.png

YOLOv7通過并行更多的梯度流分支,放ELAN模塊可以獲得更豐富的梯度信息,進而或者更高的精度和更合理的延遲。

C2f模塊的結構圖如下:

我們可以很容易的看出,C2f模塊就是參考了C3模塊以及ELAN的思想進行的設計,讓YOLOv8可以在保證輕量化的同時獲得更加豐富的梯度流信息。

e18bd27e-911b-11ed-bfe3-dac502259ad0.png

C2f模塊對應的Pytorch實現如下:

classC2f(nn.Module):
#CSPBottleneckwith2convolutions
def__init__(self,c1,c2,n=1,shortcut=False,g=1,e=0.5):#ch_in,ch_out,number,shortcut,groups,expansion
super().__init__()
self.c=int(c2*e)#hiddenchannels
self.cv1=Conv(c1,2*self.c,1,1)
self.cv2=Conv((2+n)*self.c,c2,1)#optionalact=FReLU(c2)
self.m=nn.ModuleList(Bottleneck(self.c,self.c,shortcut,g,k=((3,3),(3,3)),e=1.0)for_inrange(n))

defforward(self,x):
y=list(self.cv1(x).split((self.c,self.c),1))
y.extend(m(y[-1])forminself.m)
returnself.cv2(torch.cat(y,1))

SPPF改進了什么?

這里講解的文章就很多了,這里也就不具體描述了,直接給出對比圖了

e19220e8-911b-11ed-bfe3-dac502259ad0.png

上圖中,左邊是SPP,右邊是SPPF。

PAN-FPN改進了什么?

我們先看一下YOLOv5以及YOLOv6的PAN-FPN部分的結構圖:

YOLOv5的Neck部分的結構圖如下:

e19e8de2-911b-11ed-bfe3-dac502259ad0.png

YOLOv6的Neck部分的結構圖如下:

e1a74e64-911b-11ed-bfe3-dac502259ad0.png

我們再看YOLOv8的結構圖:

e1ad9d1e-911b-11ed-bfe3-dac502259ad0.png

可以看到,相對于YOLOv5或者YOLOv6,YOLOv8將C3模塊以及RepBlock替換為了C2f,同時細心可以發現,相對于YOLOv5和YOLOv6,YOLOv8選擇將上采樣之前的1×1卷積去除了,將Backbone不同階段輸出的特征直接送入了上采樣操作。

Head部分都變了什么呢?

先看一下YOLOv5本身的Head(Coupled-Head):

e1b383f0-911b-11ed-bfe3-dac502259ad0.png

而YOLOv8則是使用了Decoupled-Head,同時由于使用了DFL 的思想,因此回歸頭的通道數也變成了4*reg_max的形式:

e1bc54d0-911b-11ed-bfe3-dac502259ad0.png

對比一下YOLOv5與YOLOv8的YAML

e1c12b72-911b-11ed-bfe3-dac502259ad0.png

損失函數

對于YOLOv8,其分類損失為VFL Loss,其回歸損失為CIOU Loss+DFL的形式,這里Reg_max默認為16。

VFL主要改進是提出了非對稱的加權操作,FL和QFL都是對稱的。而非對稱加權的思想來源于論文PISA,該論文指出首先正負樣本有不平衡問題,即使在正樣本中也存在不等權問題,因為mAP的計算是主正樣本。

e1ca272c-911b-11ed-bfe3-dac502259ad0.png

q是label,正樣本時候q為bbox和gt的IoU,負樣本時候q=0,當為正樣本時候其實沒有采用FL,而是普通的BCE,只不過多了一個自適應IoU加權,用于突出主樣本。而為負樣本時候就是標準的FL了??梢悦黠@發現VFL比QFL更加簡單,主要特點是正負樣本非對稱加權、突出正樣本為主樣本。

針對這里的DFL(Distribution Focal Loss),其主要是將框的位置建模成一個 general distribution,讓網絡快速的聚焦于和目標位置距離近的位置的分布。

e1cf684a-911b-11ed-bfe3-dac502259ad0.png

DFL 能夠讓網絡更快地聚焦于目標 y 附近的值,增大它們的概率;

DFL的含義是以交叉熵的形式去優化與標簽y最接近的一左一右2個位置的概率,從而讓網絡更快的聚焦到目標位置的鄰近區域的分布;也就是說學出來的分布理論上是在真實浮點坐標的附近,并且以線性插值的模式得到距離左右整數坐標的權重。

樣本的匹配

標簽分配是目標檢測非常重要的一環,在YOLOv5的早期版本中使用了MaxIOU作為標簽分配方法。然而,在實踐中發現直接使用邊長比也可以達到一阿姨你的效果。而YOLOv8則是拋棄了Anchor-Base方法使用Anchor-Free方法,找到了一個替代邊長比例的匹配方法,TaskAligned。

為與NMS搭配,訓練樣例的Anchor分配需要滿足以下兩個規則:

正常對齊的Anchor應當可以預測高分類得分,同時具有精確定位;

不對齊的Anchor應當具有低分類得分,并在NMS階段被抑制?;谏鲜鰞蓚€目標,TaskAligned設計了一個新的Anchor alignment metric 來在Anchor level 衡量Task-Alignment的水平。并且,Alignment metric 被集成在了 sample 分配和 loss function里來動態的優化每個 Anchor 的預測。

Anchor alignment metric:

分類得分和 IoU表示了這兩個任務的預測效果,所以,TaskAligned使用分類得分和IoU的高階組合來衡量Task-Alignment的程度。使用下列的方式來對每個實例計算Anchor-level 的對齊程度:

e1d90c42-911b-11ed-bfe3-dac502259ad0.png

s 和 u 分別為分類得分和 IoU 值,α 和 β 為權重超參。從上邊的公式可以看出來,t 可以同時控制分類得分和IoU 的優化來實現 Task-Alignment,可以引導網絡動態的關注于高質量的Anchor。

Training sample Assignment:

為提升兩個任務的對齊性,TOOD聚焦于Task-Alignment Anchor,采用一種簡單的分配規則選擇訓練樣本:對每個實例,選擇m個具有最大t值的Anchor作為正樣本,選擇其余的Anchor作為負樣本。然后,通過損失函數(針對分類與定位的對齊而設計的損失函數)進行訓練。






審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • PAN
    PAN
    +關注

    關注

    1

    文章

    19

    瀏覽量

    14279
  • ELAN
    +關注

    關注

    0

    文章

    3

    瀏覽量

    5119
  • BEC
    BEC
    +關注

    關注

    0

    文章

    7

    瀏覽量

    5339

原文標題:YOLO系列又雙叒更新!詳細解讀YOLOv8的改進模塊

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    中興V5手機配置如何?我們一起來看看吧!

    在3月18日的時候中興正式發布中興紅牛品牌,而這個品牌的首款智能手機產品中興紅牛V5將在今天(4月9日)下午正式發布,中興這次的新機推出速度著實迅速,那么配置怎么樣額?我們一起來看看吧!
    發表于 03-24 08:50 ?2494次閱讀

    使用YOLOv8做目標檢測和實例分割的演示

    YOLOv8是來自Ultralytics的最新的基于YOLO的對象檢測模型系列,提供最先進的性能。
    的頭像 發表于 02-06 10:11 ?7459次閱讀

    YOLOv8自定義數據集訓練到模型部署推理簡析

    如果你只是想使用而不是開發,強烈推薦通過pip安裝方式獲取YOLOv8包!YOLOv8安裝命令行
    的頭像 發表于 03-24 09:27 ?4659次閱讀

    在AI愛克斯開發板上用OpenVINO?加速YOLOv8目標檢測模型

    《在 AI 愛克斯開發板上用 OpenVINO 加速 YOLOv8 分類模型》介紹了在 AI 愛克斯開發板上使用 OpenVINO 開發套件部署并測評 YOLOv8 的分類模型,本文將介紹在 AI 愛克斯開發板上使用 OpenVINO 加速
    的頭像 發表于 05-12 09:08 ?1312次閱讀
    在AI愛克斯開發板上用OpenVINO?加速<b class='flag-5'>YOLOv8</b>目標檢測模型

    YOLOv8版本升級支持小目標檢測與高分辨率圖像輸入

    YOLOv8版本最近版本又更新了,除了支持姿態評估以外,通過模型結構的修改還支持了小目標檢測與高分辨率圖像檢測。原始的YOLOv8模型結構如下。
    的頭像 發表于 05-16 11:14 ?1.2w次閱讀
    <b class='flag-5'>YOLOv8</b>版本升級支持小目標檢測與高分辨率圖像輸入

    AI愛克斯開發板上使用OpenVINO加速YOLOv8目標檢測模型

    《在AI愛克斯開發板上用OpenVINO加速YOLOv8分類模型》介紹了在AI愛克斯開發板上使用OpenVINO 開發套件部署并測評YOLOv8的分類模型,本文將介紹在AI愛克斯開發板上使用OpenVINO加速YOLOv8目標檢
    的頭像 發表于 05-26 11:03 ?1240次閱讀
    AI愛克斯開發板上使用OpenVINO加速<b class='flag-5'>YOLOv8</b>目標檢測模型

    文徹底搞懂YOLOv8【網絡結構+代碼+實操】

    從上面可以看出,YOLOv8 主要參考了最近提出的諸如 YOLOX、YOLOv6、YOLOv7 和 PPYOLOE 等算法的相關設計,本身的創新點不多,偏向工程實踐,主推的還是 ultralytics 這個框架本身。
    的頭像 發表于 06-15 17:15 ?1.2w次閱讀
    <b class='flag-5'>一</b>文徹底搞懂<b class='flag-5'>YOLOv8</b>【網絡<b class='flag-5'>結構</b>+代碼+實操】

    教你如何用兩行代碼搞定YOLOv8各種模型推理

    大家好,YOLOv8 框架本身提供的API函數是可以兩行代碼實現 YOLOv8 模型推理,這次我把這段代碼封裝成了個類,只有40行代碼左右,可以同時支持YOLOv8對象檢測、實例分割
    的頭像 發表于 06-18 11:50 ?3055次閱讀
    教你如何用兩行代碼搞定<b class='flag-5'>YOLOv8</b>各種模型推理

    目標檢測算法再升級!YOLOv8保姆級教程鍵體驗

    YOLO作為種基于圖像全局信息進行預測的目標檢測系統,始終保持著極高的迭代更新率,從YOLOv5到YOLOv8,本次升級主要包括結構算法、命令行界面、PythonAPI等。具體到
    的頭像 發表于 02-28 11:16 ?2680次閱讀
    目標檢測算法再升級!<b class='flag-5'>YOLOv8</b>保姆級教程<b class='flag-5'>一</b>鍵體驗

    三種主流模型部署框架YOLOv8推理演示

    深度學習模型部署有OpenVINO、ONNXRUNTIME、TensorRT三個主流框架,均支持Python與C++的SDK使用。對YOLOv5~YOLOv8的系列模型,均可以通過C++推理實現模型
    的頭像 發表于 08-06 11:39 ?2734次閱讀

    解鎖YOLOv8修改+注意力模塊訓練與部署流程

    很多人也想跟修改YOLOv5源碼樣的方式去修改YOLOv8的源碼,但是在github上面卻發現找到的YOLOv8項目下面TAG分支是空的
    的頭像 發表于 08-11 14:14 ?4342次閱讀
    解鎖<b class='flag-5'>YOLOv8</b>修改+注意力模塊訓練與部署流程

    如何修改YOLOv8的源碼

    很多人也想跟修改YOLOv5源碼樣的方式去修改YOLOv8的源碼,但是在github上面卻發現找到的YOLOv8項目下面TAG分支是空的,然后就直接從master/main下面把源碼
    的頭像 發表于 09-04 10:02 ?1993次閱讀
    如何修改<b class='flag-5'>YOLOv8</b>的源碼

    YOLOv8實現任意目錄下命令行訓練

    當你使用YOLOv8命令行訓練模型的時候,如果當前執行的目錄下沒有相關的預訓練模型文件,YOLOv8就會自動下載模型權重文件。這個是個正常操作,但是你還會發現,當你在參數model中指定已有
    的頭像 發表于 09-04 10:50 ?1104次閱讀
    <b class='flag-5'>YOLOv8</b>實現任意目錄下命令行訓練

    基于YOLOv8的自定義醫學圖像分割

    YOLOv8種令人驚嘆的分割模型;它易于訓練、測試和部署。在本教程中,我們將學習如何在自定義數據集上使用YOLOv8。但在此之前,我想告訴你為什么在存在其他優秀的分割模型時應該使用YOLO
    的頭像 發表于 12-20 10:51 ?771次閱讀
    基于<b class='flag-5'>YOLOv8</b>的自定義醫學圖像分割

    基于OpenCV DNN實現YOLOv8的模型部署與推理演示

    基于OpenCV DNN實現YOLOv8推理的好處就是套代碼就可以部署在Windows10系統、烏班圖系統、Jetson的Jetpack系統
    的頭像 發表于 03-01 15:52 ?1584次閱讀
    基于OpenCV DNN實現<b class='flag-5'>YOLOv8</b>的模型部署與推理演示
    主站蜘蛛池模板: CHINSEFUCKGAY无套| 公和我做好爽添厨房中文字幕| videossexo乌克兰| 国产色青青视频在线观看| 久久频这里精品99香蕉久网址| 奇米色偷偷| 亚洲破处女| bl高h乱肉辣文| 很黄很色60分钟在线观看| 男人J桶女人P视频无遮挡网站| 三级网址在线播放| 伊人久综合| 国产成人免费观看在线视频| 久久精品国产视频澳门| 三级网站视频在线观看| 中国人泡妞xxxxxxxx19| 国产精品久久久久久久人人看| 老师在讲桌下边h边讲课| 四虎国产一区| 99er久久国产精品在线| 国产一区私人高清影院| 人C交ZZZ0OOZZZ000| 伊人久久大香线蕉资源| 国产成人免费视频| 牛牛自拍国产免费视频| 亚洲视频免费观看| 高清无码中文字幕影片| 毛片网站网址| 亚洲视频在线免费观看| 国产成人精品电影在线观看| 男同志在线观看| 亚洲色噜噜狠狠站欲八| 国产ZZJJZZJJ视频全免费| 男人国产AV天堂WWW麻豆| 亚洲视频在线免费| 欧美伦理片第7页| 月夜直播免费看| 国产专区_爽死777| 入禽太深视频免费视频| ai换脸在线全集观看 | 成人精品视频|