色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Adobe研究院的研究者們提出了全新的通用深度網(wǎng)絡(luò)架構(gòu)CPNet

DPVg_AI_era ? 來(lái)源:lq ? 2019-05-25 09:41 ? 次閱讀

斯坦福大學(xué)和Adobe研究院的研究者們提出了全新的通用深度網(wǎng)絡(luò)架構(gòu)CPNet,用于學(xué)習(xí)視頻中圖片之間的長(zhǎng)程對(duì)應(yīng)關(guān)系,來(lái)解決現(xiàn)有方法在處理視頻長(zhǎng)程運(yùn)動(dòng)中的局限性。在三大視頻分類數(shù)據(jù)集上取得了優(yōu)于之前結(jié)果的性能。相關(guān)論文獲CVPR 2019 oral。

這是一款全新的通用深度網(wǎng)絡(luò)架構(gòu)。

現(xiàn)有的視頻深度學(xué)習(xí)架構(gòu)通常依賴于三維卷積、自相關(guān)、非局部模塊等運(yùn)算,這些運(yùn)算難以捕捉視頻中幀間的長(zhǎng)程運(yùn)動(dòng)/相關(guān)性。

近日,來(lái)自斯坦福和Adobe的研究人員,受到點(diǎn)云上深度學(xué)習(xí)方法的啟發(fā),提出了一個(gè)通用的深度網(wǎng)絡(luò)架構(gòu)CPNet,用于學(xué)習(xí)視頻中圖片之間的長(zhǎng)程對(duì)應(yīng)關(guān)系,來(lái)解決上述問(wèn)題。

arXiv地址:

https://arxiv.org/abs/1905.07853

研究人員們所提出的CPNet是一個(gè)全新的通用的視頻深度學(xué)習(xí)框架。該網(wǎng)絡(luò)通過(guò)尋找對(duì)應(yīng)的表征來(lái)學(xué)習(xí)視頻中圖片之間稀疏且不規(guī)則的對(duì)應(yīng)模式,并且可以融合進(jìn)現(xiàn)有的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)中。

研究人員在三個(gè)視頻分類數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),結(jié)果表明,CPNet在性能上取得了較大的突破。

CPNet:對(duì)應(yīng)提議網(wǎng)絡(luò)

視頻是由一串圖片組成。然而,視頻并不是任意圖片隨機(jī)的堆砌,其前后幀有強(qiáng)烈的相關(guān)性,表現(xiàn)為一幀圖片中的物體通常會(huì)在其它幀中出現(xiàn)。

相比于單張靜態(tài)的圖片,這樣的對(duì)應(yīng)關(guān)系構(gòu)成了視頻中動(dòng)態(tài)的部分。我們總結(jié)視頻中圖片之間的對(duì)應(yīng)關(guān)系有如下三大特點(diǎn):

對(duì)應(yīng)位置有相似的視覺(jué)或語(yǔ)義特征。這也是我們?nèi)祟惻卸▋蓭械南袼厥欠駥儆谕晃矬w的標(biāo)準(zhǔn)之一。

對(duì)應(yīng)位置在空間維和時(shí)間維上都可以有任意長(zhǎng)的距離。空間維上,物體可以很快從圖片的一端運(yùn)動(dòng)到另一端;時(shí)間維上,物體可以在視頻中存在任意長(zhǎng)的時(shí)間。

潛在的對(duì)應(yīng)位置所占比例為少數(shù)。對(duì)于一個(gè)像素/表征,在其它幀中通常只有極少的相似像素/表征是可能的對(duì)應(yīng),其它明顯不相似的像素/表征則可以忽略掉。換言之,對(duì)應(yīng)關(guān)系存在不規(guī)則性和稀疏性。

那么什么樣的網(wǎng)絡(luò)架構(gòu)可以滿足上述特點(diǎn)呢?

三維卷積無(wú)法檢測(cè)相似性;自相關(guān)是局部操作,無(wú)法勝任長(zhǎng)程對(duì)應(yīng);非局部模塊側(cè)重于注意力機(jī)制,無(wú)法適應(yīng)稀疏性和不規(guī)則性,也無(wú)法學(xué)到長(zhǎng)程運(yùn)動(dòng)的方向。因此我們需要全新的網(wǎng)絡(luò)架構(gòu)。

圖1

我們提出了對(duì)應(yīng)提議網(wǎng)絡(luò)CPNet(Correspondence Proposal Network),其架構(gòu)能同時(shí)滿足上述三種特點(diǎn)。

核心思想如圖1所示:深度網(wǎng)絡(luò)架構(gòu)中,我們將視頻表征張量視為一個(gè)點(diǎn)云,在語(yǔ)義特征空間中(而非一般的時(shí)空空間),對(duì)于表征張量中的每一個(gè)表征即“點(diǎn)”,我們尋找其在其它幀里最近的k個(gè)“點(diǎn)”,并將其視為該表征的潛在對(duì)應(yīng)。然后類似于點(diǎn)云上的深度學(xué)習(xí),對(duì)于這k對(duì)“點(diǎn)”中的每一對(duì),我們使用相同且互相獨(dú)立的神經(jīng)網(wǎng)絡(luò)處理他們的特征向量和位置,然后用最大池化操作從k個(gè)輸出中提取出最強(qiáng)的響應(yīng)。本質(zhì)上,我們的網(wǎng)絡(luò)架構(gòu)可以學(xué)到從這k對(duì)潛在對(duì)應(yīng)中選擇出最有趣的信息。如此一來(lái),最后的輸出表征向量就包含了視頻中的動(dòng)態(tài)信息。

CPNet的架構(gòu)

我們將網(wǎng)絡(luò)的核心命名為”CP模塊“,其結(jié)構(gòu)如下,大致分為兩個(gè)部分。輸入和輸出都是一個(gè)THW x C的視頻表征張量,我們將這兩者都視為一個(gè)THW個(gè)點(diǎn)的帶C維特征向量的點(diǎn)云。

第一個(gè)部分為語(yǔ)義特征空間k最近鄰算法,如圖2所示。我們先求出所有表征對(duì)之間的負(fù)L2語(yǔ)義距離得到THW x THW形狀的矩陣;然后將對(duì)角線上的T個(gè)HW x HW子矩陣的元素置為負(fù)無(wú)窮,這樣位于同一幀的表征就可以排除在潛在對(duì)應(yīng)表征之外了。之后對(duì)每一行進(jìn)行arg top k操作就可以得到潛在對(duì)應(yīng)表征的下標(biāo)。

圖2

第二個(gè)部分為對(duì)應(yīng)關(guān)系的學(xué)習(xí)。我們用上一步得到的下標(biāo)從輸入視頻表征張量中提取出表征。對(duì)于每一個(gè)輸入表征和其k個(gè)最近鄰表征組成的k對(duì)表征對(duì)中的一對(duì),我們將這一對(duì)表征的語(yǔ)義特征向量以及其之間的時(shí)空相對(duì)位置連在一起,得到k個(gè)長(zhǎng)向量。然后我們將這k個(gè)長(zhǎng)向量送入相同且互相獨(dú)立的多層感知器(MLP),然后再用元素級(jí)的最大池化操作(element-wise max-pooling)得到輸出向量,也就是輸出視頻表征張量該表征位置的語(yǔ)義特征向量。

圖3

為了防止訓(xùn)練時(shí)梯度爆炸或消失,類似于ResNet中的跳躍連接,我們將上一步的輸出表征張量加回到了輸入表征張量中??梢钥吹?,該模塊可以無(wú)縫銜接進(jìn)現(xiàn)有的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)如ResNet中。在實(shí)驗(yàn)中,所有CP模塊一開(kāi)始初始化為全等操作,這樣我們就可以使用ImageNet預(yù)訓(xùn)練模型來(lái)初始化網(wǎng)絡(luò)其它部分的參數(shù)。

實(shí)驗(yàn)結(jié)果

我們?cè)诖笠?guī)模視頻分類數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。首先,我們?cè)贙inetics數(shù)據(jù)集上進(jìn)行了小規(guī)模模型的實(shí)驗(yàn)來(lái)研究CP模塊的數(shù)量、位置以及k值的大小對(duì)視頻分類結(jié)果的影響。由結(jié)果可知,模型的性能隨CP模塊數(shù)量增多而提高并趨于飽和;CP模塊放置的位置對(duì)性能有影響;k值在訓(xùn)練時(shí)和推理時(shí)保持一致且合適的值可以得到最佳性能。

我們?cè)贙inetics數(shù)據(jù)集上與其它已發(fā)表結(jié)果進(jìn)行了比較。我們同時(shí)比較了小規(guī)模和大規(guī)模模型。CPNet在參數(shù)數(shù)量更少的情況下取得優(yōu)于之前結(jié)果的性能。

我們也在Something-Something和Jester數(shù)據(jù)集上與其它已發(fā)表結(jié)果進(jìn)行了比較。相比于Kinetics,這兩個(gè)數(shù)據(jù)集更偏重動(dòng)態(tài)信息對(duì)分類的影響。CPNet同樣在參數(shù)數(shù)量更少的情況下取得優(yōu)于之前結(jié)果。

值得注意的是,相比于沒(méi)有CP模塊的基準(zhǔn)二維卷積ResNet,CPNet僅僅額外加入了極少的參數(shù),就在這兩個(gè)數(shù)據(jù)集上得到了極大的性能提升,進(jìn)一步證明了其學(xué)習(xí)視頻中動(dòng)態(tài)信息的強(qiáng)大能力。

模型的可視化

我們對(duì)訓(xùn)練好的模型進(jìn)行了可視化來(lái)理解其工作原理

我們選取了一個(gè)表征的位置,然后在圖片中用箭頭標(biāo)注出其k個(gè)最近鄰表征的位置。特別地,我們用紅色箭頭標(biāo)注出哪些最近鄰表征在最大池化過(guò)程中被選中。我們同時(shí)用熱圖來(lái)顯示表征圖在經(jīng)過(guò)CP模塊后的變化。

可以看到,通過(guò)語(yǔ)義特征的距離,CP模塊可以大致找到正確的潛在對(duì)應(yīng)位置,例如上圖中的籃球、易拉罐和大拇指。

在上述例子中,對(duì)于錯(cuò)誤的對(duì)應(yīng)提議,CP模塊也能在最大池化過(guò)程中忽略掉它們。同時(shí),熱圖顯示CP模塊對(duì)于處于運(yùn)動(dòng)狀態(tài)的圖片部分更加敏感。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 矩陣
    +關(guān)注

    關(guān)注

    0

    文章

    423

    瀏覽量

    34564
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24722
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5504

    瀏覽量

    121222

原文標(biāo)題:斯坦福&Adobe CVPR 19 Oral:全新通用深度網(wǎng)絡(luò)架構(gòu)CPNet

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    創(chuàng)維集團(tuán)研究院招聘—背光電子設(shè)計(jì)師

    創(chuàng)維集團(tuán)研究院是創(chuàng)維的核心研發(fā)機(jī)構(gòu),研究院堅(jiān)持創(chuàng)新的發(fā)展理念,多次推動(dòng)產(chǎn)業(yè)的轉(zhuǎn)型升級(jí),掀起席卷中華大地的創(chuàng)維彩電“數(shù)碼潮”、“健康風(fēng)”、“純平風(fēng)暴”、“逐行風(fēng)暴”、“高清風(fēng)暴”、“平板風(fēng)暴”,“液晶
    發(fā)表于 11-07 10:00

    西安某500強(qiáng)研究院招聘

    西安某國(guó)球500強(qiáng)企業(yè)研究院招聘需要大量通信行業(yè)研發(fā)人員,主要崗位:嵌入式,射頻,軟件測(cè)試等要求:統(tǒng)招本科5年以上工作經(jīng)驗(yàn),碩士3年以上,博士應(yīng)屆畢業(yè)薪資面議有意請(qǐng)聯(lián)系QQ:2318655563郵箱:maggie.li@up-hr.com
    發(fā)表于 08-13 11:07

    中科建筑設(shè)計(jì)研究院有限公司招聘照明設(shè)計(jì)師

    研究院(有限公司)隸屬于中國(guó)科學(xué)院,成立于1951年,具有建筑工程甲級(jí)資質(zhì)、市政熱力專項(xiàng)甲級(jí)、城市規(guī)劃設(shè)計(jì)乙級(jí)資質(zhì)。更多招聘詳情可參考:阿拉丁照明人才網(wǎng) job.alighting.cn
    發(fā)表于 10-23 09:56

    珠江水利科學(xué)研究院

    珠江水利科學(xué)研究院產(chǎn)品研發(fā)崗位招聘一、招聘人數(shù):1~2人二、職責(zé)描述:1、承擔(dān)水利信息化與自動(dòng)化硬件產(chǎn)品研發(fā)工作2、負(fù)責(zé)產(chǎn)品總體方案的擬定及研發(fā)立項(xiàng)報(bào)告編寫(xiě)3、負(fù)責(zé)系統(tǒng)詳細(xì)設(shè)計(jì)4、參與產(chǎn)品的軟件開(kāi)發(fā)
    發(fā)表于 01-14 10:58

    中馬研究院正式掛牌成立

    `  12月30日下午,中馬研究院于園區(qū)正式掛牌成立,園區(qū)管委會(huì)副主任楊健豪、主任助理曹全來(lái)出席并為研究院揭牌,園區(qū)管委會(huì)經(jīng)濟(jì)發(fā)展局全體成員見(jiàn)證揭牌?! ≈旭R研究院旨在打造“立足中馬、面向東盟的新型
    發(fā)表于 01-07 16:02

    中科海西研究院泉州裝備制造研究所現(xiàn)代電機(jī)控制與電力電子實(shí)驗(yàn)室招聘公告

    ,聯(lián)歡會(huì)等。四、聯(lián)系方式有意應(yīng)聘,請(qǐng)將簡(jiǎn)歷發(fā)至郵箱:yiying.huang@fjirsm.ac.cn 中國(guó)科學(xué)院海西研究院泉州裝備制造研究所是中科海西
    發(fā)表于 06-30 16:27

    中科蘇州納米所南昌研究院 封裝測(cè)試工程師

    芯片加工,MEMS傳感器、光電子器件的研究背景或工作經(jīng)驗(yàn);4.動(dòng)手能力強(qiáng),善于學(xué)習(xí)溝通,吃苦耐勞,有團(tuán)隊(duì)合作精神; 5.有半導(dǎo)體相關(guān)工作2年以上工作經(jīng)驗(yàn)優(yōu)先考慮; 崗位待遇:中科蘇州納米所南昌研究院
    發(fā)表于 07-12 17:19

    百度深度學(xué)習(xí)研究院科學(xué)家深度講解人工智能

    的研發(fā)經(jīng)驗(yàn)。在過(guò)去的工作中,他發(fā)表過(guò)論文十余篇,申請(qǐng)中國(guó)專利超過(guò)100項(xiàng),其中已經(jīng)授權(quán)的有95項(xiàng)。他曾任職百度深度學(xué)習(xí)研究院,負(fù)責(zé)人臉識(shí)別方向,曾經(jīng)多次帶領(lǐng)團(tuán)隊(duì)在主流的人臉檢測(cè)、人臉識(shí)別競(jìng)賽上取得
    發(fā)表于 07-19 10:01

    基于深度學(xué)習(xí)的異常檢測(cè)的研究方法

    異常檢測(cè)的深度學(xué)習(xí)研究綜述原文:arXiv:1901.03407摘要異常檢測(cè)是一個(gè)重要的問(wèn)題,在不同的研究領(lǐng)域和應(yīng)用領(lǐng)域都得到了很好的研究。本文的
    發(fā)表于 07-12 07:10

    英特爾研究院與聯(lián)想研究院簽署研究院合作框架協(xié)議

    英特爾研究院與聯(lián)想研究院日前在北京簽署了《研究院合作框架協(xié)議》,宣布雙方將在PC及移動(dòng)互聯(lián)網(wǎng)領(lǐng)域,立足3~5年長(zhǎng)遠(yuǎn)技術(shù)研究,開(kāi)展協(xié)同創(chuàng)新深度
    發(fā)表于 04-13 08:42 ?550次閱讀

    機(jī)器學(xué)習(xí)研究者必知的八個(gè)神經(jīng)網(wǎng)絡(luò)架構(gòu)

    本文簡(jiǎn)述了機(jī)器學(xué)習(xí)核心結(jié)構(gòu)的歷史發(fā)展,并總結(jié)了研究者需要熟知的 8 個(gè)神經(jīng)網(wǎng)絡(luò)架構(gòu)。
    發(fā)表于 02-26 18:40 ?1115次閱讀

    中國(guó)電信將上海研究院更名為中國(guó)電信網(wǎng)絡(luò)與信息安全研究院

    近日,中國(guó)電信進(jìn)行了研究院架構(gòu)調(diào)整,除整合北京、上海、廣州三家研究院外,同時(shí)在新設(shè)定的名稱上確定了各自的研究方向,其中上海研究院更名為中國(guó)電
    發(fā)表于 01-10 11:02 ?4344次閱讀

    微軟亞洲研究院視覺(jué)計(jì)算組提出高分辨率深度神經(jīng)網(wǎng)絡(luò)

    為了彌補(bǔ)空間精度的損失,研究者在分類卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,通過(guò)引入上采樣操作和/或組合空洞卷積減少降采樣次數(shù)來(lái)提升表征的分辨率,典型的結(jié)構(gòu)包括Hourglass、U-Net等(如圖2)。
    的頭像 發(fā)表于 05-25 10:43 ?2685次閱讀

    中國(guó)移動(dòng)研究院提出“3層+4面”的6G網(wǎng)絡(luò)邏輯架構(gòu)

    國(guó)移動(dòng)研究院主辦了6G系列研討會(huì)第二次會(huì)議。來(lái)自肯特大學(xué)、浙江大學(xué)、東南大學(xué)、西安交通大學(xué)、中國(guó)信息通信研究院、華為、中興通訊、大唐、VIVO、清微智能和中國(guó)移動(dòng)研究院等學(xué)術(shù)界和產(chǎn)業(yè)界的十余位專家做了云上分享,與超過(guò)5000名線
    的頭像 發(fā)表于 06-29 10:08 ?2759次閱讀

    微軟亞洲研究院研究提出了一種模型壓縮的新思路

    近日,來(lái)自微軟亞洲研究院自然語(yǔ)言計(jì)算組的研究提出了一種與顯式地利用蒸餾損失函數(shù)來(lái)最小化教師模型與學(xué)生模型距離的知識(shí)蒸餾不同的模型壓縮新方法。
    的頭像 發(fā)表于 11-24 09:48 ?1666次閱讀
    主站蜘蛛池模板: wwwxxx日本护士| 精品国产三级a| 国产精品福利片| 精彩国产萝视频在线| 毛片TV网站无套内射TV网站| 欧美性猛交AAA片免费观看| 无码人妻精品一区二区蜜桃在线看| 亚洲视频一| 爱情岛aqdlttv| 精品国产品国语在线不卡丶| 欧美最新色p图| 亚洲视频不卡| 超碰最新地址| 久久精品热在线观看85| 日产精品久久久久久久蜜殿| 一色狗影院| 国产AV亚洲精品久久久久| 久久精品国产色蜜蜜麻豆国语版 | caoporen超碰在线视频| 国产午夜视频| 秋霞在线观看视频一区二区三区| 亚洲精品中文字幕在线| jizz日本美女| 久久99蜜桃精品麻豆| 色偷偷超碰97人人澡人人| 在线观看成人免费视频| 国产成人精品视频| 免费A级毛片无码无遮挡| 亚洲a免费| 成人午夜剧场| 蜜臀AV浪潮99国产麻豆| 亚洲国产综合久久久无码色伦| 草莓视频在线观看完整高清免费 | 饥渴难耐的浪荡艳妇在线观看| 青青草原网址| 樱花草在线观看影院| 国产精品AV视频一二三区| 男人插曲女人的视频| 亚洲色在线| 国产日韩欧美另类| 日本丝袜护士|