色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

比CNN表現(xiàn)更好,CV領(lǐng)域全新卷積操作OctConv厲害在哪里?

電子工程師 ? 來源:YXQ ? 2019-04-24 11:35 ? 次閱讀

CNN卷積神經(jīng)網(wǎng)絡(luò)問世以來,在計(jì)算機(jī)視覺領(lǐng)域備受青睞,與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)相比,其參數(shù)共享性和平移不變性,使得對于圖像的處理十分友好,然而,近日由Facebook AI、新家坡國立大學(xué)、360人工智能研究院的研究人員提出的一種新的卷積操作OctConv使得在圖像處理性能方面得到了重大突破與提升,OctConv和CNN中的卷積有什么不同呢?

論文下載地址:

https://arxiv.org/pdf/1904.05049.pdf

CNN網(wǎng)絡(luò)中的卷積層主要用來提取圖像特征,如下圖所示,利用卷積核(也稱濾波器)對輸入圖像的每個(gè)像素進(jìn)行卷積操作得到特征圖,由于圖像中相鄰像素的特征相似性,卷積核橫掃每個(gè)位置,獨(dú)立的存儲(chǔ)自己的特征描述符,忽略空間上的一致性,使得特征圖在空間維度上存在大量的冗余。

圖1 普通卷積操作示意圖

OctConv主要基于于處理多空間頻率的特征映射并減少空間冗余的問題提出的。

原文地址:

https://export.arxiv.org/pdf/1904.05049

下面文摘菌將從論文的四個(gè)部分展開對OctConv原理的闡述。

Why?—OctConv之誕生

文章摘要(Abstract)部分指出,在自然圖像中,信息以不同的頻率傳輸,其中高頻率通常以細(xì)節(jié)進(jìn)行編碼,而較低頻率通常以總體結(jié)構(gòu)進(jìn)行編碼,同理卷積層的輸出可以看做不同頻率的信息混合,在論文中,研究者提出通過頻率對特征融合圖進(jìn)行分解,并設(shè)計(jì)出了一種新的Octave卷積(OctConv)操作,旨在存儲(chǔ)和處理在空間上變化緩慢的較低分辨率的特征圖,從而降低內(nèi)存和計(jì)算成本。與現(xiàn)存的多尺度方法不同,OctConv是一種單一、通用、即插即用的卷積單元,可以直接代替普通卷積,而無需調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)。

OctConv與那些用于構(gòu)建更優(yōu)拓?fù)浠蛘邷p少分組或深度卷積中信道冗余的方法是正交和互補(bǔ)的。

實(shí)驗(yàn)表明,通過使用OctConv替代普通卷積,能很好的提高語音和圖像識別任務(wù)中的精度,同時(shí)降低內(nèi)存和計(jì)算成本,一個(gè)配備有OctConv的ResNet-152能夠以僅僅22.2 GFLOP在ImageNet數(shù)據(jù)集上達(dá)到82.5%的top-1分類準(zhǔn)確率。

What?—初探OctConv

論文Introduction(介紹)部分基于CNN現(xiàn)存的空間維度冗余問題引出了下圖:

圖2 論文思路闡述圖

(a)動(dòng)機(jī):研究表明,自然圖像可以分解為低空間頻率和高空間頻率兩部分;

(b)卷積層的輸出圖也可以根據(jù)空間頻率進(jìn)行分解和分組;

(c)所提出的多頻特征表示將平滑變化的低頻映射存儲(chǔ)字低分辨率張量中,以減少空間冗余;

(d)所提出的OctConv直接作用于這個(gè)表示。它會(huì)更新每個(gè)組的信息,并進(jìn)一步支持組之間的信息交換。

具體解釋為:如圖 2(a) 所示,自然圖像可以分解為描述平穩(wěn)變化結(jié)構(gòu)的低空間頻率分量和描述快速變化的精細(xì)細(xì)節(jié)的高空間頻率分量。類似地,我們認(rèn)為卷積層的輸出特征映射也可以分解為不同空間頻率的特征,并提出了一種新的多頻特征表示方法,將高頻和低頻特征映射存儲(chǔ)到不同的組中,如圖 2(b) 所示。因此,通過相鄰位置間的信息共享,可以安全地降低低頻組的空間分辨率,減少空間冗余,如圖 2(c) 所示。

How?—再探OctConv

論文Method(方法)部分:octave feature 減少了空間冗余,比原始表示更加緊湊。然而,由于輸入特征的空間分辨率不同,傳統(tǒng)卷積不能直接對這種表示進(jìn)行操作。避免這個(gè)問題的一種簡單方法是將低頻部分上采樣到原始的空間分辨率,將它與連接起來,然后進(jìn)行卷積,這將導(dǎo)致額外的計(jì)算和內(nèi)存開銷。為了充分利用緊湊的多頻特征表示,我們提出 Octave Convolution,它可以直接在分解張量X={XH,XL}上運(yùn)行,而不需要任何額外的計(jì)算或內(nèi)存開銷。

Octave Convolution的設(shè)計(jì)目標(biāo)是有效地處理相應(yīng)張量中的低頻和高頻分量,同時(shí)使得Octave特征表示的高頻分量和低頻分量之間能夠有效通信。設(shè)X,Y為分解輸入和輸出張量,那么輸出的高頻和低頻信號將由下式給出:

其中H→H,L→L表示自身的更新,L→H,H→L表示高頻與低頻分量之間的通信,如圖3所示綠色箭頭表示信息更新,紅色箭頭表示兩個(gè)頻率之間的信息交換。

圖3 Octave Convolution示意圖

同理,我們將卷積核分解為高頻和低頻W={WH,WL},WH=WH→H+WL→H;WL=WL→L+WH→L,如圖4所示:

圖3 Octave Convolution kernel示意圖

對于低頻特征所使用的低頻所占比例a的不同,當(dāng)a=0時(shí)(即沒有低頻成分),OctConv就會(huì)退化為普通卷積。經(jīng)過實(shí)驗(yàn)評估k×k Octave 卷積核與普通卷積核等價(jià),即二者具有完全相同的參數(shù)量。

To do—Just do it

論文的實(shí)驗(yàn)部分:研究人員驗(yàn)證了提出的Octave卷積對于2D和3D網(wǎng)絡(luò)的效能和效率,首先展示了ImageNet圖像分類的控制變量研究,然后將其與當(dāng)前最優(yōu)的方法進(jìn)行了比較。之后研究人員使用Kinetics-400和Kinetics-600數(shù)據(jù)集,展示了提出的OctConv也適用于3D CNN。

圖4 ImageNet上的控制變量結(jié)果圖

上表為論文中的表8,視頻中的動(dòng)作識別、控制變量研究結(jié)果統(tǒng)計(jì)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    8

    文章

    1698

    瀏覽量

    46022
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    352

    瀏覽量

    22238

原文標(biāo)題:比CNN表現(xiàn)更好,CV領(lǐng)域全新卷積操作OctConv厲害在哪里?

文章出處:【微信號:BigDataDigest,微信公眾號:大數(shù)據(jù)文摘】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    卷積神經(jīng)網(wǎng)絡(luò)有何用途 卷積神經(jīng)網(wǎng)絡(luò)通常運(yùn)用在哪里

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理、生物信息學(xué)等領(lǐng)域。本文將介紹卷積
    的頭像 發(fā)表于 07-11 14:43 ?2541次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本概念、原理及特點(diǎn)

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)算法,它在圖像識別、視頻分析、自然語言處理等領(lǐng)域有著廣泛的應(yīng)用。本文將詳細(xì)介紹卷積
    的頭像 發(fā)表于 07-11 14:38 ?1100次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的卷積操作

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)中的卷積操作是其核心組成部分,對于圖像識別、語音識別、自然語言處理等
    的頭像 發(fā)表于 07-04 16:10 ?1498次閱讀

    如何利用CNN實(shí)現(xiàn)圖像識別

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)領(lǐng)域中一種特別適用于圖像識別任務(wù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。它通過模擬人類視覺系統(tǒng)的處理方式,利用卷積、池化等操作,自動(dòng)
    的頭像 發(fā)表于 07-03 16:16 ?1429次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)示例

    分類。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本概念 1.1 卷積層(Convolutional Layer) 卷積層是CNN中的核心組件,用于提取圖像特征。卷積
    的頭像 發(fā)表于 07-03 10:51 ?455次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)原理

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的
    的頭像 發(fā)表于 07-03 10:49 ?562次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)計(jì)算過程和步驟

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的計(jì)算
    的頭像 發(fā)表于 07-03 09:36 ?615次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的組成部分有哪些

    卷積層、池化層、激活函數(shù)、全連接層、損失函數(shù)、優(yōu)化算法等,并探討它們在CNN中的作用和應(yīng)用。 卷積層(Convolutional Layer) 卷積層是
    的頭像 發(fā)表于 07-03 09:31 ?1068次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類、目標(biāo)檢測、語義分割等領(lǐng)域。本文將詳細(xì)介紹CNN在分類任務(wù)中的應(yīng)用,包括基本結(jié)構(gòu)、關(guān)鍵技術(shù)、常見網(wǎng)絡(luò)架構(gòu)以及實(shí)際應(yīng)用案例。
    的頭像 發(fā)表于 07-03 09:28 ?641次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)三大特點(diǎn)是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域CNN具有以下三大特點(diǎn): 局
    的頭像 發(fā)表于 07-03 09:26 ?1392次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)可以通過輸出反推到輸入嗎

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。CNN通過
    的頭像 發(fā)表于 07-03 09:17 ?688次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理與實(shí)現(xiàn)

    1.卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋
    的頭像 發(fā)表于 07-02 16:47 ?607次閱讀

    CNN模型的基本原理、結(jié)構(gòu)、訓(xùn)練過程及應(yīng)用領(lǐng)域

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域CNN模型的核心是
    的頭像 發(fā)表于 07-02 15:26 ?3773次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)cnn模型有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。 CNN的基本概念 1.1
    的頭像 發(fā)表于 07-02 15:24 ?733次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)cnn中池化層的主要作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)領(lǐng)域中一種重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),廣泛應(yīng)用于圖像識別、語音識別、自然語言處理等領(lǐng)域。在
    的頭像 發(fā)表于 07-02 14:50 ?1256次閱讀
    主站蜘蛛池模板: 精品国产成人a区在线观看| 成人在免费观看视频国产| 日本性hd| 美女18毛片免费视频| 久99视频精品免费观看福利| 国产精品久久久久久久AV下载| 办公室沙发口爆12P| 97超碰射射射| 最新无码国产在线视频2020| 野花韩国在线观看| 亚洲午夜精品A片久久WWW软件| 性色少妇AV蜜臀人妻无码| 乌克兰粉嫩摘花第一次| 偷拍亚洲制服另类无码专区| 熟女久久久久久久久久久| 色橹橹欧美在线观看视频高清 | 久久这里只有精品1| 久久久欧美国产精品人妻噜噜| 九色终合九色综合88| 久久久午夜精品福利内容| 久久免费看视频| 老鸭窝毛片| 男女夜晚在爽视频免费观看| 农民下乡在线观看3| 且试天下芒果免费观看| 日韩hd高清xxxⅹ| 午夜小视频免费观看| 亚洲免费人成在线视频观看| 伊人久久青草| 1级午夜影院费免区| MATURETUBE乱妇| 观赏女性排尿| 国产偷窥盗摄一区二区| 精品少妇高潮蜜臀涩涩AV| 老师好爽你下面水好多视频| 暖暖免费 高清 日本社区中文| 青青草视频在线ac| 我在厨房摸岳的乳HD在线观看| 亚洲日本香蕉视频观看视频| 自慰弄湿白丝袜| www黄色com|