色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

我們是如何改進YOLOv3進行紅外小目標檢測的

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2020-12-08 22:21 ? 次閱讀
文章轉載于微信公眾號:GiantPandaCV
作者:pprp

【GiantPandCV導語】本文將介紹BBuf、小武和筆者一起在過年期間完成的一個目標檢測項目,將描述我們模型改進的思路、實驗思路、結果匯總和經驗性總結。聲明:這篇文章經過了三人同意,并且所有創新點也將被公布。此外,由于經驗上的不足,可能整個實驗思路不夠成熟,比不上CV大組的嚴謹性,如有問題還煩請指教。

1. 紅外小目標檢測

紅外小目標檢測的目標比較小,目標極其容易和其他物體混淆,有一定的挑戰性。

另外,這本質上也是一個小目標領域的問題,很多適用于小目標的創新點也會被借鑒進來。

數據來源自@小武
此外,該數據集還有一個特點,就是分背景,雖然同樣是檢測紅外小目標,區別是背景的不同,我們對數據集進行了統計以及通過人工翻看的方式總結了其特點,如下表所示:

通過以上結果,可以看出背景的不同對結果影響還是蠻大的,最后一列也給出了針對性的建議,打算后續實施。

2. 實驗過程

首先,我們使用的是U版的yolov3: https://github.com/ultralytics/yolov3,那時候YOLOv4/5、PPYOLO還都沒出,當時出了一個《從零開始學習YOLOv3》就是做項目的時候寫的電子書,其中的在YOLOv3中添加注意力機制那篇很受歡迎(可以水很多文章出來,畢業要緊:)

我們項目的代碼以及修改情況可以查看:https://github.com/GiantPandaCV/yolov3-point

將數據集轉成VOC格式的數據集,之前文章有詳細講述如何轉化為標準的VOC數據集,以及如何將VOC格式數據集轉化為U版的講解。當時接觸到幾個項目,都需要用YOLOv3,由于每次都需要轉化,大概分別調用4、5個腳本吧,感覺很累,所以當時花了一段時間構建了一個一鍵從VOC轉U版YOLOv3格式的腳本庫: https://github.com/pprp/voc2007_for_yolo_torch

到此時為止,我們項目就已經可以運行了,然后就是很多細節調整了。

2.1 修改Anchor

紅外小目標的Anchor和COCO等數據集的Anchor是差距很大的,為了更好更快速的收斂,采用了BBuf總結的一套專門計算Anchor的腳本:

#coding=utf-8importxml.etree.ElementTreeasETimportnumpyasnpdefiou(box,clusters):"""計算一個ground truth邊界盒和k個先驗框(Anchor)的交并比(IOU)值。參數box:元組或者數據,代表ground truth的長寬。參數clusters:形如(k,2)的numpy數組,其中k是聚類Anchor框的個數返回:ground truth和每個Anchor框的交并比。"""x=np.minimum(clusters[:,0],box[0])y=np.minimum(clusters[:,1],box[1])ifnp.count_nonzero(x==0)>0ornp.count_nonzero(y==0)>0:raiseValueError("Boxhasnoarea")intersection=x*ybox_area=box[0]*box[1]cluster_area=clusters[:,0]*clusters[:,1]iou_=intersection/(box_area+cluster_area-intersection)returniou_defavg_iou(boxes,clusters):"""計算一個ground truth和k個Anchor的交并比的均值。"""returnnp.mean([np.max(iou(boxes[i],clusters))foriinrange(boxes.shape[0])])defkmeans(boxes,k,dist=np.median):"""利用IOU值進行K-means聚類參數boxes:形狀為(r,2)的groundtruth框,其中r是groundtruth的個數參數k:Anchor的個數參數dist:距離函數返回值:形狀為(k, 2)的k個Anchor框"""#即是上面提到的rrows=boxes.shape[0]#距離數組,計算每個groundtruth和k個Anchor的距離distances=np.empty((rows,k))#上一次每個groundtruth"距離"最近的Anchor索引last_clusters=np.zeros((rows,))#設置隨機數種子np.random.seed()#初始化聚類中心,k個簇,從r個groundtruth隨機選k個clusters=boxes[np.random.choice(rows,k,replace=False)]#開始聚類whileTrue:#計算每個groundtruth和k個Anchor的距離,用1-IOU(box,anchor)來計算forrowinrange(rows):distances[row]=1-iou(boxes[row],clusters)#對每個groundtruth,選取距離最小的那個Anchor,并存下索引nearest_clusters=np.argmin(distances,axis=1)#如果當前每個groundtruth"距離"最近的Anchor索引和上一次一樣,聚類結束if(last_clusters==nearest_clusters).all():break#更新簇中心為簇里面所有的groundtruth框的均值forclusterinrange(k):clusters[cluster]=dist(boxes[nearest_clusters==cluster],axis=0)#更新每個groundtruth"距離"最近的Anchor索引last_clusters=nearest_clustersreturnclusters#加載自己的數據集,只需要所有labelimg標注出來的xml文件即可defload_dataset(path):dataset=[]forxml_fileinglob.glob("{}/*xml".format(path)):tree=ET.parse(xml_file)#圖片高度height=int(tree.findtext("./size/height"))#圖片寬度width=int(tree.findtext("./size/width"))forobjintree.iter("object"):#偏移量xmin=int(obj.findtext("bndbox/xmin"))/widthymin=int(obj.findtext("bndbox/ymin"))/heightxmax=int(obj.findtext("bndbox/xmax"))/widthymax=int(obj.findtext("bndbox/ymax"))/heightxmin=np.float64(xmin)ymin=np.float64(ymin)xmax=np.float64(xmax)ymax=np.float64(ymax)ifxmax==xminorymax==ymin:print(xml_file)#將Anchor的長寬放入dateset,運行kmeans獲得Anchordataset.append([xmax-xmin,ymax-ymin])returnnp.array(dataset)if__name__=='__main__':ANNOTATIONS_PATH="F:/Annotations"#xml文件所在文件夾CLUSTERS=9#聚類數量,anchor數量INPUTDIM=416#輸入網絡大小data=load_dataset(ANNOTATIONS_PATH)out=kmeans(data,k=CLUSTERS)print('Boxes:')print(np.array(out)*INPUTDIM)print("Accuracy:{:.2f}%".format(avg_iou(data,out)*100))final_anchors=np.around(out[:,0]/out[:,1],decimals=2).tolist()print("BeforeSortRatios:/n{}".format(final_anchors))print("AfterSortRatios:/n{}".format(sorted(final_anchors)))

通過瀏覽腳本就可以知道,Anchor和圖片的輸入分辨率有沒有關系 這個問題了,當時這個問題有很多群友都在問。通過kmeans函數得到的結果實際上是歸一化到0-1之間的,然后Anchor的輸出是在此基礎上乘以輸入分辨率的大小。所以個人認為Anchor和圖片的輸入分辨率是有關系的。

此外,U版也提供了Anchor計算,如下:

defkmean_anchors(path='./2007_train.txt',n=5,img_size=(416,416)):#fromutils.utilsimport*;_=kmean_anchors()#Producesalistoftargetkmeanssuitableforusein*.cfgfilesfromutils.datasetsimportLoadImagesAndLabelsthr=0.20#IoUthresholddefprint_results(thr,wh,k):k=k[np.argsort(k.prod(1))]#sortsmalltolargeiou=wh_iou(torch.Tensor(wh),torch.Tensor(k))max_iou,min_iou=iou.max(1)[0],iou.min(1)[0]bpr,aat=(max_iou>thr).float().mean(),(iou>thr).float().mean()*n#bestpossiblerecall,anch>thrprint('%.2fiou_thr:%.3fbestpossiblerecall,%.2fanchors>thr'%(thr,bpr,aat))print('kmeansanchors(n=%g,img_size=%s,IoU=%.3f/%.3f/%.3f-min/mean/best):'%(n,img_size,min_iou.mean(),iou.mean(),max_iou.mean()),end='')fori,xinenumerate(k):print('%i,%i'%(round(x[0]),round(x[1])),end=','ifithr).float().mean()#bestpossiblerecallreturniou.mean()*bpr#product#Getlabelwhwh=[]dataset=LoadImagesAndLabels(path,augment=True,rect=True,cache_labels=True)nr=1ifimg_size[0]==img_size[1]else10#numberaugmentationrepetitionsfors,linzip(dataset.shapes,dataset.labels):wh.append(l[:,3:5]*(s/s.max()))#imagenormalizedtoletterboxnormalizedwhwh=np.concatenate(wh,0).repeat(nr,axis=0)#augment10xwh*=np.random.uniform(img_size[0],img_size[1],size=(wh.shape[0],1))#normalizedtopixels(multi-scale)#Darknetyolov3.cfganchorsuse_darknet=Falseifuse_darknet:k=np.array([[10,13],[16,30],[33,23],[30,61],[62,45],[59,119],[116,90],[156,198],[373,326]])else:#Kmeanscalculationfromscipy.cluster.vqimportkmeansprint('Runningkmeansfor%ganchorson%gpoints...'%(n,len(wh)))s=wh.std(0)#sigmasforwhiteningk,dist=kmeans(wh/s,n,iter=30)#points,meandistancek*=sk=print_results(thr,wh,k)#Evolvewh=torch.Tensor(wh)f,ng=fitness(thr,wh,k),2000#fitness,generationsfor_intqdm(range(ng),desc='Evolvinganchors'):kg=(k.copy()*(1+np.random.random()*np.random.randn(*k.shape)*0.30)).clip(min=2.0)fg=fitness(thr,wh,kg)iffg>f:f,k=fg,kg.copy()print_results(thr,wh,k)k=print_results(thr,wh,k)returnk

這個和超參數搜索那篇采用的方法類似,也是一種類似遺傳算法的方法,通過一代一代的篩選找到合適的Anchor。以上兩種方法筆者并沒有對比,有興趣可以試試這兩種方法,對比看看。

Anchor這方面設置了三個不同的數量進行聚類:

3 anchor:

13,18,16,22,19,25

6 anchor:

12,17,14,17,15,19,15,21,13,20,19,24

9 anchor:

10,16,12,17,13,20,13,22,15,18,15,20,15,23,18,23,21,26

2.2 構建Baseline

由于數據集是單類的,并且相對VOC等數據集來看,比較單一,所以不打算使用Darknet53這樣的深度神經網絡,采用的Baseline是YOLOv3-tiny模型,在使用原始Anchor的情況下,該模型可以在驗證集上達到mAP@0.5=93.2%,在測試集上達到mAP@0.5=0.869的結果。

那接下來換Anchor,用上一節得到的新Anchor替換掉原來的Anchor,該改掉的模型為yolov3-tiny-6a:


可以看到幾乎所有的指標都提升了,這說明Anchor先驗的引入是很有必要的。

2.3 數據集部分改進

上邊已經分析過了,背景對目標檢測的結果還是有一定影響的,所以我們先后使用了幾種方法進行改進。

第一個:過采樣

通過統計不同背景的圖像的數量,比如以sea為背景的圖像只有17張,而最多的cloudless/_sky為背景的圖像有1300+張,這就產生了嚴重的不平衡性。顯然cloudless/_sky為背景的很簡單,sea為背景的難度更大,這樣由于數據不平衡的原因,訓練得到的模型很可能也會在cloudless/_sky這類圖片上效果很好,在其他背景下效果一般。
所以首先要采用過采樣的方法,這里的過采樣可能和別的地方的不太一樣,這里指的是將某些背景數量小的圖片通過復制的方式擴充。

:( 可惜實驗結果不支持想法,一起分析一下。ps:os代表over sample

然后進行分背景測試,結果如下:

均衡后的分背景測試

從分背景結果來看,確實sea訓練數據很少的結果很好,mAP提高了2個點,但是complex/_cloud等mAP有所下降。總結一下就是對于訓練集中數據很少的背景類mAP有提升,但是其他本身數量就很多的背景mAP略微下降或者保持。

第二個:在圖片中任意位置復制小目標

修改后的版本地址:https://github.com/pprp/SimpleCVReproduction/tree/master/SmallObjectAugmentation

具體實現思路就是,先將所有小目標摳出來備用。然后在圖像上復制這些小目標,要求兩兩之間重合率不能達到一個閾值并且復制的位置不能超出圖像邊界。

效果如下:(這個是示意圖,比較夸張,復制的個數比較多

增強結果

這種做法來自當時比較新的論文《Augmentation for small object detection》,文中最好的結果是復制了1-2次。實際我們項目中也試過1次、2次、3次到多次的結果,都不盡如人意,結果太差就沒有記錄下來。。(話說論文中展示的效果最佳組合是原圖+增強后的圖,并且最好的結果也就提高了1個百分點)╮(╯﹏╰)╭

2.4 修改Backbone

修改Backbone經常被群友問到這樣一件事,修改骨干網絡以后無法加載預訓練權重了,怎么辦?
有以下幾個辦法:

  • 干脆不加載,從頭訓練,簡單問題(比如紅外小目標)從頭收斂效果也不次于有預訓練權重的。
  • 不想改代碼的話,可以選擇修改Backbone之后、YOLO Head之前的部分(比如SPP的位置屬于這種情況)
  • 能力比較強的,可以改一下模型加載部分代碼,跳過你新加入的模塊,這樣也能加載(筆者沒試過,別找我)。

修改Backbone我們也從幾個方向入的手,分為注意力模塊、即插即用模塊、修改FPN、修改激活函數、用成熟的網絡替換backbone和SPP系列。
1. 注意力模塊
這個項目中使用的注意力模塊,大部分都在公號上寫過代碼解析,感興趣的可以翻看一下。筆者前一段時間公布了一個電子書《卷積神經網絡中的即插即用模塊》也是因為這個項目中總結了很多注意力模塊,所以開始整理得到的結果。具體模塊還在繼續更新:https://github.com/pprp/SimpleCVReproduction
當時實驗的模塊有:SE、CBAM等,由于當時Baseline有點高,效果并不十分理想。(注意力模塊插進來不可能按照預期一下就提高多少百分點,需要多調參才有可能超過原來的百分點)根據群友反饋,SE直接插入成功率比較高。筆者在一個目標檢測比賽中見到有一個大佬是在YOLOv3的FPN的三個分支上各加了一個CBAM,最終超過Cascade R-CNN等模型奪得冠軍。
2. 即插即用模塊
注意力模塊也屬于即插即用模塊,這部分就說的是非注意力模塊的部分如 FFM、ASPP、PPM、Dilated Conv、SPP、FRB、CorNerPool、DwConv、ACNet等,效果還可以,但是沒有超過當前最好的結果。
3. 修改FPN
FPN這方面花了老久時間,參考了好多版本才搞出了一個dt-6a-bifpn(dt代表dim target紅外目標;6a代表6個anchor),令人失望的是,這個BiFPN效果并不好,測試集上效果更差了。可能是因為實現的cfg有問題,歡迎反饋。
大家都知道通過改cfg的方式改網絡結構是一件很痛苦的事情,推薦一個可視化工具:

https://lutzroeder.github.io/netron/

除此以外,為了方便查找行數,筆者寫了一個簡單腳本用于查找行數(獻丑了

importosimportshutilcfg_path="./cfg/yolov3-dwconv-cbam.cfg"save_path="./cfg/preprocess_cfg/"new_save_name=os.path.join(save_path,os.path.basename(cfg_path))f=open(cfg_path,'r')lines=f.readlines()#去除以#開頭的,屬于注釋部分的內容#lines=[xforxinlinesifxandnotx.startswith('#')]#lines=[x.rstrip().lstrip()forxinlines]lines_nums=[]layers_nums=[]layer_cnt=-1fornum,lineinenumerate(lines):ifline.startswith('['):layer_cnt+=1layers_nums.append(layer_cnt)lines_nums.append(num+layer_cnt)print(line)#s=s.join("")#s=s.join(line)fori,numinenumerate(layers_nums):print(lines_nums[i],num)lines.insert(lines_nums[i]-1,'#layer-%d/n'%(num-1))fo=open(new_save_name,'w')fo.write(''.join(lines))fo.close()f.close()

我們也嘗試了只用一個、兩個和三個YOLO Head的情況,結果是3>2>1,但是用3個和2個效果幾乎一樣,差異不大小數點后3位的差異,所以還是選用兩個YOLO Head。
4. 修改激活函數
YOLO默認使用的激活函數是leaky relu,激活函數方面使用了mish。效果并沒有提升,所以無疾而終了。
5. 用成熟的網絡替換backbone
這里使用了ResNet10(第三方實現)、DenseNet、BBuf修改的DenseNet、ENet、VOVNet(自己改的)、csresnext50-panet(當時AB版darknet提供的)、PRN(作用不大)等網絡結構。
當前最強的網絡是dense-v3-tiny-spp,也就是BBuf修改的Backbone+原汁原味的SPP組合的結構完虐了其他模型,在測試集上達到了mAP@0.5=0.932、F1=0.951的結果。
6. SPP系列
這個得好好說說,我們三人調研了好多論文、參考了好多trick,大部分都無效,其中從來不會讓人失望的模塊就是SPP。我們對SPP進行了深入研究,在《卷積神經網絡中的各種池化操作》中提到過。
SPP是在SPPNet中提出的,SPPNet提出比較早,在RCNN之后提出的,用于解決重復卷積計算和固定輸出的兩個問題,具體方法如下圖所示:

在feature map上通過selective search獲得窗口,然后將這些區域輸入到CNN中,然后進行分類。
實際上SPP就是多個空間池化的組合,對不同輸出尺度采用不同的劃窗大小和步長以確保輸出尺度相同,同時能夠融合金字塔提取出的多種尺度特征,能夠提取更豐富的語義信息。常用于多尺度訓練和目標檢測中的RPN網絡。
在YOLOv3中有一個網絡結構叫yolov3-spp.cfg, 這個網絡往往能達到比yolov3.cfg本身更高的準確率,具體cfg如下:

###SPP###[maxpool]stride=1size=5[route]layers=-2[maxpool]stride=1size=9[route]layers=-4[maxpool]stride=1size=13[route]layers=-1,-3,-5,-6###EndSPP###

這里的SPP相當于是原來的SPPNet的變體,通過使用多個kernel size的maxpool,最終將所有feature map進行concate,得到新的特征組合。

再來看一下官方提供的yolov3和yolov3-spp在COCO數據集上的對比:

可以看到,在幾乎不增加FLOPS的情況下,YOLOv3-SPP要比YOLOv3-608mAP高接近3個百分點。
分析一下SPP有效的原因:

  1. 從感受野角度來講,之前計算感受野的時候可以明顯發現,maxpool的操作對感受野的影響非常大,其中主要取決于kernel size大小。在SPP中,使用了kernel size非常大的maxpool會極大提高模型的感受野,筆者沒有詳細計算過darknet53這個backbone的感受野,在COCO上有效很可能是因為backbone的感受野還不夠大。
  2. 第二個角度是從Attention的角度考慮,這一點啟發自CSDN@小楞,他在文章中這樣講:
出現檢測效果提升的原因:通過spp模塊實現局部特征和全局特征(所以空間金字塔池化結構的最大的池化核要盡可能的接近等于需要池化的featherMap的大小)的featherMap級別的融合,豐富最終特征圖的表達能力,從而提高MAP。

Attention機制很多都是為了解決遠距離依賴問題,通過使用kernel size接近特征圖的size可以以比較小的計算代價解決這個問題。另外就是如果使用了SPP模塊,就沒有必要在SPP后繼續使用其他空間注意力模塊比如SK block,因為他們作用相似,可能會有一定冗余。

在本實驗中,確實也得到了一個很重要的結論,那就是:
SPP是有效的,其中size的設置應該接近這一層的feature map的大小
口說無憑,看一下實驗結果:
SPP系列實驗

當前的feature map大小就是13x13,實驗結果表示,直接使用13x13的效果和SPP的幾乎一樣,運算量還減少了。

2.5 修改Loss

loss方面嘗試了focal loss,但是經過調整alpha和beta兩個參數,不管用默認的還是自己慢慢調參,網絡都無法收斂,所以當時給作者提了一個issue: https://github.com/ultralytics/yolov3/issues/811
glenn-jocher說效果不好就別用:(

作者回復

BBuf也研究了好長時間,發現focal loss在Darknet中可以用,但是效果也一般般。最終focal loss也是無疾而終。此外還試著調整了ignore thresh,來配合focal loss,實驗結果如下(在AB版Darknet下完成實驗):

3. 經驗性總結

在這個實驗過程中,和BBuf討論有了很多啟發,也進行了總結,在這里公開出來,(可能部分結論不夠嚴謹,沒有經過嚴格對比實驗,感興趣的話可以做一下對比實驗)。

  • SPP層是有效的,Size設置接近feature map的時候效果更好。
  • YOLOv3、YOLOv3-SPP、YOLOv3-tiny三者在檢測同一個物體的情況下,YOLOv3-tiny給的該物體的置信度相比其他兩個模型低。(其實也可以形象化理解,YOLOv3-tiny的腦容量比較小,所以唯唯諾諾不敢確定)
  • 個人感覺Concate的方法要比Add的方法更柔和,對小目標效果更好。本實驗結果上是DenseNet作為Backbone的時候效果是最佳的。
  • 多尺度訓練問題,這個文中沒提。多尺度訓練對于尺度分布比較廣泛的問題效果明顯,比如VOC這類數據集。但是對于尺度單一的數據集反而有反作用,比如紅外小目標數據集目標尺度比較統一,都很小。
  • Anchor對模型影響比較大,Anchor先驗不合理會導致更多的失配,從而降低Recall。
  • 當時跟群友討論的時候就提到一個想法,對于小目標來說,淺層的信息更加有用,那么進行FPN的時候,不應該單純將兩者進行Add或者Concate,而是應該以一定的比例完成,比如對于小目標來說,引入更多的淺層信息,讓淺層網絡權重增大;大目標則相反。后邊通過閱讀發現,這個想法被ASFF實現了,而且想法比較完善。
  • PyTorch中的Upsample層是不可復現的。
  • 有卡可以嘗試一下超參數進化方法。

PS: 以上內容不保證結論完全正確,只是經驗性總結,歡迎入群討論交流。

4. 致謝

感謝BBuf和小武和我一起完成這個項目,感謝小武提供的數據和算法,沒有小武的支持,我們無法完成這么多實驗。感謝BBuf的邀請,我才能加入這個項目,一起討論對我的幫助非常大(怎么沒早點遇見BB:)
雖然最后是爛尾了,但是學到了不少東西,很多文章都是在這個過程中總結得到的,在這個期間總結的文章有《CV中的Attention機制》、《從零開始學習YOLOv3》、《目標檢測和感受野的總結和想法》、《PyTorch中模型的可復現性》、《目標檢測算法優化技巧》等,歡迎去干貨錦集中回顧。
以上是整個實驗過程的一部分,后邊階段我們還遇到了很多困難,想將項目往輕量化的方向進行,由于種種原因,最終沒有繼續下去,在這個過程中,總結一下教訓,實驗說明和備份要做好,修改的數據集、訓練得到的權重、當時的改動點要做好備份。現在回看之前的實驗記錄和cfg文件都有點想不起來某些模型的改動點在哪里了,還是整理的不夠詳細,實驗記錄太亂。
最后希望這篇文章能給大家提供一些思路。

5. 資源列表

官方代碼:https://github.com/ultralytic...
改進代碼:https://github.com/GiantPanda...
Focal Loss Issue: https://github.com/ultralytic...
小目標增強庫(復制和粘貼的方式):https://github.com/pprp/Simpl...
pprp Github: https://github.com/pprp
BBuf Github:https://github.com/BBuf
以上涉及到的所有實驗結果已經整理成markdown文件,請在后臺回復“紅外”獲得。


歡迎關注GiantPandaCV, 在這里你將看到獨家的深度學習分享,堅持原創,每天分享我們學習到的新鮮知識。( ? ?ω?? )?
- END -

推薦閱讀

更多嵌入式AI技術干貨請關注嵌入式AI專欄。

審核編輯:符乾江
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 目標檢測
    +關注

    關注

    0

    文章

    209

    瀏覽量

    15636
  • 深度學習
    +關注

    關注

    73

    文章

    5507

    瀏覽量

    121298
收藏 人收藏

    評論

    相關推薦

    采用華為云 Flexus 云服務器 X 實例部署 YOLOv3 算法完成目標檢測

    一、前言 1.1 開發需求 這篇文章講解:?采用華為云最新推出的 Flexus 云服務器 X 實例部署 YOLOv3 算法,完成圖像分析、目標檢測。 隨著計算機視覺技術的飛速發展,深度學習模型如
    的頭像 發表于 01-02 12:00 ?69次閱讀
    采用華為云 Flexus 云服務器 X 實例部署 <b class='flag-5'>YOLOv3</b> 算法完成<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>

    在RK3568教學實驗箱上實現基于YOLOV5的算法物體識別案例詳解

    非常流行的實時目標檢測模型,它提供了出色的性能和精度。YOLOv5可以分為三個部分,分別是: 1、主干特征提取網絡(Backbone) 2、加強特征提取網絡(FPN) 3、分類器與回歸
    發表于 12-03 14:56

    YOLOv10自定義目標檢測之理論+實踐

    概述 YOLOv10 是由清華大學研究人員利用 Ultralytics Python 軟件包開發的,它通過改進模型架構并消除非極大值抑制(NMS)提供了一種新穎的實時目標檢測方法。這些
    的頭像 發表于 11-16 10:23 ?570次閱讀
    <b class='flag-5'>YOLOv</b>10自定義<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>之理論+實踐

    YOLOv10:引領無NMS實時目標檢測的新紀元

    。 YOLO(You Only Look Once)系列一直是實時目標檢測的基準,成功平衡了計算成本和檢測性能。盡管在架構設計和優化策略方面取得了進展,但對非最大值抑制(NMS)的依賴阻礙了端到端部署,影響了推理延遲。
    的頭像 發表于 11-13 17:12 ?833次閱讀
    <b class='flag-5'>YOLOv</b>10:引領無NMS實時<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>的新紀元

    在樹莓派上部署YOLOv5進行動物目標檢測的完整流程

    卓越的性能。本文將詳細介紹如何在性能更強的計算機上訓練YOLOv5模型,并將訓練好的模型部署到樹莓派4B上,通過樹莓派的攝像頭進行實時動物目標檢測。 一、在電腦上訓練
    的頭像 發表于 11-11 10:38 ?1201次閱讀
    在樹莓派上部署<b class='flag-5'>YOLOv</b>5<b class='flag-5'>進行</b>動物<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>的完整流程

    YOLOv6在LabVIEW中的推理部署(含源碼)

    YOLOv6 是美團視覺智能部研發的一款目標檢測框架,致力于工業應用。如何使用python進行該模型的部署,官網已經介紹的很清楚了,但是對于如何在LabVIEW中實現該模型的部署,筆者
    的頭像 發表于 11-06 16:07 ?335次閱讀
    <b class='flag-5'>YOLOv</b>6在LabVIEW中的推理部署(含源碼)

    YOLOv8中的損失函數解析

    YOLO長期以來一直是目標檢測任務的首選模型之一。它既快速又準確。此外,其API簡潔易用。運行訓練或推斷作業所需的代碼行數有限。在2023年下半年,YOLOv8在框架中引入了姿態估計后,該框架現在支持最多四個任務,包括分類、
    的頭像 發表于 11-05 17:15 ?1158次閱讀
    <b class='flag-5'>YOLOv</b>8中的損失函數解析

    使用無源紅外技術進行占位檢測

    電子發燒友網站提供《使用無源紅外技術進行占位檢測.pdf》資料免費下載
    發表于 08-27 10:00 ?0次下載
    使用無源<b class='flag-5'>紅外</b>技術<b class='flag-5'>進行</b>占位<b class='flag-5'>檢測</b>

    基于迅為RK3588【RKNPU2項目實戰1】:YOLOV5實時目標分類

    [/url] 【RKNPU2 人工智能開發】 【AI深度學習推理加速器】——RKNPU2 從入門到實踐(基于RK3588和RK3568) 【RKNPU2項目實戰1】:YOLOV5實時目標分類 【RKNPU2項目實戰2】:SORT目標
    發表于 08-15 10:51

    目標檢測與識別技術有哪些

    視頻中識別并定位感興趣的目標,通常包括目標的類別和位置信息。目標識別(Object Recognition)是指對檢測到的目標
    的頭像 發表于 07-17 09:40 ?642次閱讀

    利用紅外熱像儀進行鋼包檢測

    在鋼鐵行業中,如何利用紅外熱像儀進行鋼包檢測。這是一項充滿挑戰的任務,但也是一項充滿機遇的任務。在這篇文章中,我們將深入解析紅外熱像儀在鋼包
    的頭像 發表于 07-03 16:04 ?426次閱讀
    利用<b class='flag-5'>紅外</b>熱像儀<b class='flag-5'>進行</b>鋼包<b class='flag-5'>檢測</b>

    YOLOv5的原理、結構、特點和應用

    YOLOv5(You Only Look Once version 5)是一種基于深度學習的實時目標檢測算法,它屬于卷積神經網絡(CNN)的范疇。下面我將詳細介紹YOLOv5的原理、結
    的頭像 發表于 07-03 09:23 ?6237次閱讀

    用OpenVINO C# API在intel平臺部署YOLOv10目標檢測模型

    的模型設計策略,從效率和精度兩個角度對YOLOs的各個組成部分進行了全面優化,大大降低了計算開銷,增強了性能。在本文中,我們將結合OpenVINO C# API使用最新發布的OpenVINO 2024.1部署YOLOv10
    的頭像 發表于 06-21 09:23 ?1063次閱讀
    用OpenVINO C# API在intel平臺部署<b class='flag-5'>YOLOv</b>10<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>模型

    在IAR中使用KitProg3進行調試,無法檢測目標是怎么回事?

    我試圖在 IAR 中使用 KitProg3 進行調試,但遇到以下錯誤: 看來 KitProg3 設備已被識別。 似乎無法檢測目標。 考
    發表于 06-03 06:15

    OpenVINO? C# API部署YOLOv9目標檢測和實例分割模型

    YOLOv9模型是YOLO系列實時目標檢測算法中的最新版本,代表著該系列在準確性、速度和效率方面的又一次重大飛躍。
    的頭像 發表于 04-03 17:35 ?909次閱讀
    OpenVINO? C# API部署<b class='flag-5'>YOLOv</b>9<b class='flag-5'>目標</b><b class='flag-5'>檢測</b>和實例分割模型
    主站蜘蛛池模板: 日本2021免费一二三四区| 国产AV精品久久久毛片| 免费 高清 中文在线观看| 国产1769一七六九视频在线| 伊人影院久久| 四虎影视永久无码精品| 麻豆精选2021| 国产亚洲精品在浅麻豆| 被公疯狂玩弄的漂亮人妻| 在线播放国产视频| 午夜特级毛片| 日本电影护士| 米奇影视999| 回复术士勇者免费观看全集| 成年人深夜福利| 最新国产成人综合在线观看| 亚洲国产av| 体育生爆操| 日本aa大片| 欧美一区二区影院| 魅男mangay| 久久青草热热在线精品| 国产在线播放不卡| 国产精品1卡二卡三卡四卡乱码| japansemature护士| 97人妻在线公开视频在线观看| 伊人亚洲AV久久无码精品| 亚洲人成网站在线观看90影院 | 色多多污污版免费下载安装| 男人和女人一起愁愁愁很痛| 久久婷五月综合色啪网| 精品人妻无码一区二区三区蜜桃臀 | 日韩精品欧美亚洲高清有无| 男人私gay挠脚心vk视频| 久久久无码精品亚洲日韩按摩| 国产在线一区观看| 一个人免费观看HD完整版 | 夜夜骑夜夜欢| 无码AV精品一区二区三区| 日韩一级精品久久久久| 日本高清免费在线观看|