色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

模型集成是一種提升模型能力的常用方法

新機(jī)器視覺(jué) ? 來(lái)源:AI公園 ? 作者:AI公園 ? 2021-01-27 11:31 ? 次閱讀

導(dǎo)讀

模型集成是一種提升模型能力的常用方法,但通常也會(huì)帶來(lái)推理時(shí)間的增加,在物體檢測(cè)上效果如何,可以看看。

8c5baf2e-6042-11eb-8b86-12bb97331649.png

介紹

集成機(jī)器學(xué)習(xí)模型是一種常見(jiàn)的提升模型能力的方式,并已在多個(gè)場(chǎng)景中使用,因?yàn)樗鼈兘Y(jié)合了多個(gè)模型的決策,以提高整體性能,但當(dāng)涉及到基于DNN(深度神經(jīng)網(wǎng)絡(luò))的目標(biāo)檢測(cè)模型時(shí),它并不僅僅是合并結(jié)果那么簡(jiǎn)單。

集成的需求

為了在任何模型中獲得良好的結(jié)果,都需要滿足某些標(biāo)準(zhǔn)(數(shù)據(jù)、超參數(shù))。但在真實(shí)場(chǎng)景中,你可能會(huì)得到糟糕的訓(xùn)練數(shù)據(jù),或者很難找到合適的超參數(shù)。在這些情況下,綜合多個(gè)性能較差的模型可以幫助你獲得所需的結(jié)果。在某種意義上,集成學(xué)習(xí)可以被認(rèn)為是一種通過(guò)執(zhí)行大量額外計(jì)算來(lái)彌補(bǔ)學(xué)習(xí)算法不足的方法。另一方面,另一種選擇是在一個(gè)非集成系統(tǒng)上做更多的學(xué)習(xí)。對(duì)于計(jì)算、存儲(chǔ)或通信資源的相同增加,集成系統(tǒng)使用兩種或兩種以上的方法可能會(huì)比使用單一方法增加資源的方法更有效地提高整體精度。

看起來(lái)挺好,有沒(méi)有缺點(diǎn)呢?

更難調(diào)試或理解預(yù)測(cè),因?yàn)轭A(yù)測(cè)框是根據(jù)多個(gè)模型繪制的。

推理時(shí)間根據(jù)模型和使用的模型數(shù)量而增加。

嘗試不同的模型以獲得合適的模型集合是一件耗時(shí)的事情。

不同的模型集成

OR方法:如果一個(gè)框是由至少一個(gè)模型生成的,就會(huì)考慮它。

AND方法:如果所有模型產(chǎn)生相同的框,則認(rèn)為是一個(gè)框(如果IOU >0.5)。

一致性方法:如果大多數(shù)模型產(chǎn)生相同的框,則認(rèn)為是一個(gè)框,即如果有m個(gè)模型,(m/2 +1)個(gè)模型產(chǎn)生相同的框,則認(rèn)為這個(gè)框有效。

加權(quán)融合:這是一種替代NMS的新方法,并指出了其不足之處。

8f114b52-6042-11eb-8b86-12bb97331649.png

不同的集成方法

在上面的例子中,OR方法的預(yù)測(cè)得到了所有需要的對(duì)象框,但也得到了一個(gè)假陽(yáng)性結(jié)果,一致性的方法漏掉了馬,AND方法同時(shí)漏掉了馬和狗。

驗(yàn)證

為了計(jì)算不同的集成方法,我們將跟蹤以下參數(shù)

True positive:預(yù)測(cè)框與gt匹配

False Positives:預(yù)測(cè)框是錯(cuò)誤的

False Negatives:沒(méi)有預(yù)測(cè),但是存在gt。

Precision:度量你的預(yù)測(cè)有多準(zhǔn)確。也就是說(shuō),你的預(yù)測(cè)正確的百分比[TP/ (TP + FP)]

Recall:度量gt被預(yù)測(cè)的百分比[TP/ (TP + FN)]

Average Precision:precision-recall圖的曲線下面積

使用的模型

為了理解集成是如何起作用的,我們提供了用于實(shí)驗(yàn)的獨(dú)立模型的結(jié)果。

1. YoloV3:

903377bc-6042-11eb-8b86-12bb97331649.png

2. Faster R-CNN — ResNeXt 101 [X101-FPN]:

90fec3a4-6042-11eb-8b86-12bb97331649.png

集成實(shí)驗(yàn)

1. OR — [YoloV3, X101-FPN]

91b45714-6042-11eb-8b86-12bb97331649.png

如果你仔細(xì)觀察,F(xiàn)Ps的數(shù)量增加了,這反過(guò)來(lái)降低了精度。與此同時(shí),TPs數(shù)量的增加反過(guò)來(lái)又增加了召回。這是使用OR方法時(shí)可以觀察到的一般趨勢(shì)。

2. AND — [YoloV3, X101-FPN]

91f8a054-6042-11eb-8b86-12bb97331649.png

與我們使用OR方法觀察到的情況相反,在AND方法中,我們最終獲得了較高的精度和較低的召回率,因?yàn)閹缀跛械募訇?yáng)性都被刪除了,因?yàn)閅oloV3和X101的大多數(shù)FPs是不同的。

檢測(cè)框加權(quán)融合

在NMS方法中,如果框的IoU大于某個(gè)閾值,則認(rèn)為框?qū)儆趩蝹€(gè)物體。因此,框的過(guò)濾過(guò)程取決于這個(gè)單一IoU閾值的選擇,這影響了模型的性能。然而,設(shè)置這個(gè)閾值很棘手:如果有多個(gè)物體并排存在,那么其中一個(gè)就會(huì)被刪除。NMS丟棄了冗余框,因此不能有效地從不同的模型中產(chǎn)生平均的局部預(yù)測(cè)。

9281237a-6042-11eb-8b86-12bb97331649.png

NMS和WBF之間的主要區(qū)別是,WBF利用所有的框,而不是丟棄它們。在上面的例子中,紅框是ground truth,藍(lán)框是多個(gè)模型做出的預(yù)測(cè)。請(qǐng)注意,NMS是如何刪除冗余框的,但WBF通過(guò)考慮所有預(yù)測(cè)框創(chuàng)建了一個(gè)全新的框(融合框)。

3. Weighted Boxes Fusion — [Yolov3, X101-FPN]

92b348f0-6042-11eb-8b86-12bb97331649.png

YoloV3和X101-FPN的權(quán)重比分別為2:1。我們也試著增加有利于X101-FPN的比重(因?yàn)樗男阅芨?,但在性能上沒(méi)有看到任何顯著的差異。從我們讀過(guò)的加權(quán)融合論文中,作者注意到了AP的增加,但如你所見(jiàn),WBF YoloV3和X101-FPN并不比OR方法好很多。我們注意到的是,大部分的實(shí)驗(yàn)涉及至少3個(gè)或更多模型。

4. Weighted Boxes Fusion — [Yolov3, X101, R101, R50]

93703e10-6042-11eb-8b86-12bb97331649.png

在最后的實(shí)驗(yàn)中,我們使用了YoloV3以及我們?cè)贒etectron2中訓(xùn)練的3個(gè)模型[ResNeXt101-FPN, ResNet101-FPN, ResNet50-FPN]。顯然,召回率有一個(gè)跳躍(約為傳統(tǒng)方法的0.3),但AP的跳躍并不大。另外,需要注意的是,當(dāng)你向WF方法添加更多模型時(shí),誤報(bào)的數(shù)量會(huì)激增。

總結(jié)

當(dāng)使用相互補(bǔ)充的模型時(shí),集成是提高性能的一種很好的方法,但它也會(huì)以速度為代價(jià)來(lái)完成推理。根據(jù)需求,可以決定有多少個(gè)模型,采用哪種方法,等等。但從我們進(jìn)行的實(shí)驗(yàn)來(lái)看,性能提升的數(shù)量似乎與一起運(yùn)行這些模型所需的資源和推斷時(shí)間不成比例。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:目標(biāo)檢測(cè)多模型集成方法總結(jié)

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【「大模型啟示錄」閱讀體驗(yàn)】如何在客服領(lǐng)域應(yīng)用大模型

    多個(gè)因素以確保所選模型能夠滿足企業(yè)的具體需求和目標(biāo)。首先,企業(yè)需要明確自己的客服需求和目標(biāo)。例如,是否需要24小時(shí)在線客服服務(wù)?是否需要處理復(fù)雜問(wèn)題的能力?是否需要個(gè)性化服務(wù)?明確這些需求有助于企業(yè)更好
    發(fā)表于 12-17 16:53

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    習(xí)語(yǔ)言的表達(dá)方式和生成能力。通過(guò)預(yù)測(cè)文本中缺失的部分或下個(gè)詞,模型逐漸掌握語(yǔ)言的規(guī)律和特征。 常用模型結(jié)構(gòu) Transformer架構(gòu)
    發(fā)表于 08-02 11:03

    cnn常用的幾個(gè)模型有哪些

    CNN(卷積神經(jīng)網(wǎng)絡(luò))是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、自然語(yǔ)言處理等領(lǐng)域。以下是常用的CNN模型: LeNet-5:LeNet-
    的頭像 發(fā)表于 07-11 14:58 ?897次閱讀

    rup是一種什么模型

    RUP(Rational Unified Process,統(tǒng)建模語(yǔ)言)是一種軟件開(kāi)發(fā)過(guò)程模型,它是一種迭代和增量的軟件開(kāi)發(fā)方法。RUP是由
    的頭像 發(fā)表于 07-09 10:13 ?1309次閱讀

    模型單卡的正確使用步驟

    、注意事項(xiàng)等方面進(jìn)行介紹,以幫助用戶更好地掌握大模型單卡的使用技巧。 第部分:大模型單卡概述 1.1 大模型單卡的定義 大模型單卡是
    的頭像 發(fā)表于 07-05 14:32 ?643次閱讀

    人工神經(jīng)網(wǎng)絡(luò)模型一種什么模型

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡(jiǎn)稱ANNs)是一種受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)而產(chǎn)生的數(shù)學(xué)模型,用于模擬人腦處理信息的方式。它由大量的節(jié)點(diǎn)(或稱為神經(jīng)元)相互連接而成
    的頭像 發(fā)表于 07-04 16:57 ?973次閱讀

    神經(jīng)網(wǎng)絡(luò)模型建完了怎么用

    : 1.1 交叉驗(yàn)證 交叉驗(yàn)證是一種常用的評(píng)估方法,它將數(shù)據(jù)集分成若干個(gè)子集,然后使用其中個(gè)子集作為測(cè)試集,其余子集作為訓(xùn)練集。通過(guò)這種方式,可以評(píng)估
    的頭像 發(fā)表于 07-02 11:23 ?625次閱讀

    【大規(guī)模語(yǔ)言模型:從理論到實(shí)踐】- 每日進(jìn)步點(diǎn)點(diǎn)

    ,特別是在NLP和大模型領(lǐng)域中被廣泛使用。 RMS Normalization(RMSNorm) 原理:為了提升LayerNorm的訓(xùn)練速度而提出的一種
    發(fā)表于 05-31 19:54

    大語(yǔ)言模型:原理與工程時(shí)間+小白初識(shí)大語(yǔ)言模型

    開(kāi)拓深度學(xué)習(xí)的思路。對(duì)于新涌現(xiàn)的大語(yǔ)言模型能力,主要是表現(xiàn)在學(xué)習(xí)能力提升、語(yǔ)言理解和生成能力、創(chuàng)新和探索的
    發(fā)表于 05-12 23:57

    一種利用光電容積描記(PPG)信號(hào)和深度學(xué)習(xí)模型對(duì)高血壓分類的新方法

    [22]。就像平均池化樣,最大池化是另一種用于減小特征圖大小的常用方法。它通過(guò)僅取每個(gè)區(qū)域的最大值來(lái)獲得最重要的特征。在機(jī)器學(xué)習(xí)中,池化方法
    發(fā)表于 05-11 20:01

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的應(yīng)用

    丹尼爾·卡尼曼在《思考,快與慢》中提出了著名的“系統(tǒng)1與系統(tǒng)2”理論。該理論指出,人類大腦的決策系統(tǒng)存在兩模式:一種是快速的、感性的系統(tǒng)1,它幫助我們處理簡(jiǎn)單的決策;另一種是緩慢的、理性的系統(tǒng)2
    發(fā)表于 05-07 17:21

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的評(píng)測(cè)

    安全性的評(píng)測(cè)則關(guān)注模型在強(qiáng)化學(xué)習(xí)階段的表現(xiàn)。行業(yè)模型的評(píng)測(cè)則針對(duì)特定行業(yè)的能力,如金融和法律等領(lǐng)域。整體能力的評(píng)測(cè)從宏觀角度評(píng)估模型作為
    發(fā)表于 05-07 17:12

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的預(yù)訓(xùn)練

    對(duì)話以及內(nèi)容豐富的網(wǎng)頁(yè)數(shù)據(jù)等。來(lái)自不同領(lǐng)域的數(shù)據(jù)則蘊(yùn)含豐富的語(yǔ)義知識(shí),如編程、科學(xué)、金融等,這有助于模型培養(yǎng)更全面的通用能力。常見(jiàn)來(lái)源如下: 大數(shù)據(jù)模型的數(shù)據(jù)預(yù)處理是數(shù)據(jù)分析流程中至關(guān)重要的
    發(fā)表于 05-07 17:10

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的基礎(chǔ)技術(shù)

    模型仍以Transformer為基礎(chǔ)進(jìn)行訓(xùn)練。Transformer是一種基于自注意力機(jī)制的編碼器-解碼器結(jié)構(gòu),其核心由編碼器和解碼器組成,每個(gè)部分均由多個(gè)相同層堆疊而成。自注意力機(jī)制使
    發(fā)表于 05-05 12:17

    【大語(yǔ)言模型:原理與工程實(shí)踐】揭開(kāi)大語(yǔ)言模型的面紗

    學(xué)習(xí)能力。這些模型以生成能力強(qiáng)和靈活性強(qiáng)為特點(diǎn),逐漸演變成一種通用計(jì)算平臺(tái)。其參數(shù)多樣性、生成能力和涌現(xiàn)性使其不僅在自然語(yǔ)言處理領(lǐng)域表現(xiàn)出色
    發(fā)表于 05-04 23:55
    主站蜘蛛池模板: 2019欧洲hd| 国产系列视频二区| 成人在线视频免费看| 国产成人自拍视频在线观看| 国产日韩欧美三级| 久久偷拍国2017| 日韩高清特级特黄毛片| 亚洲色图影院| 北原多香子qvod| 果冻传媒在线观看高清完整免费| 伦理电影v男人天堂| 色婷婷综合激情中文在线| 夜夜澡人人爽人人喊_欧美| jizzhd中国| 狠狠色综合久久丁香婷婷| 女性露出奶头流出精子| 亚洲AV午夜精品麻豆AV| 91国在线啪精品一区| 国产精品久久人妻无码网站一区无| 久久内在线视频精品mp4| 视频成人永久免费视频| 中国午夜伦理片| 国产精品一区二区AV97| 女人高潮了拔出来了她什么感觉| 亚洲AV无码乱码国产精品品麻豆 | 偷拍 拍自 欧美色区| 在线视频 亚洲| 国产高潮久久精品AV无码| 麻豆Av国产在线播放| 先锋影音av最新资源| yellow高清免费观看日本| 久久精品免费观看久久| 少妇精品久久久一区二区三区 | 无遮18禁在线永久免费观看挡| 中文字幕亚洲欧美在线视频| 国产精品无码人妻99999| 欧美伦理片第7页| 伊人久久综合网站| 国产伦精品一区二区免费| 欧美z000z猪| 英国video性精品高清最新|