色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MaX-DeepLab:雙路徑Transformer架構(gòu)概覽

Tensorflowers ? 來源:TensorFlow ? 作者:TensorFlow ? 2021-05-31 11:07 ? 次閱讀

全景分割是一個(gè)計(jì)算機(jī)視覺任務(wù),會(huì)將語義分割(為每個(gè)像素分配類標(biāo)簽)和實(shí)例分割(檢測(cè)和分割每個(gè)對(duì)象實(shí)例)合并。作為實(shí)際應(yīng)用中的核心任務(wù),全景分割通常使用多個(gè)代理 (Surrogate) 子任務(wù)(如使用邊界框檢測(cè)方法)粗略估計(jì)全景分割目標(biāo),來實(shí)現(xiàn)預(yù)測(cè)一組不相重疊的遮罩 (mask) 及其相對(duì)應(yīng)的類別標(biāo)簽(例如對(duì)象所屬的類別,如“汽車”、“交通指示燈”、“道路”等)。

在此代理樹中,每個(gè)子任務(wù)都會(huì)產(chǎn)生額外的手動(dòng)設(shè)計(jì)模塊,如錨點(diǎn)設(shè)計(jì)規(guī)則、邊界框分配規(guī)則、非極大值抑制 (NMS)、thing-stuff(thing 類物體和 stuff 類物體)合并,等等。雖然對(duì)于單個(gè)子任務(wù)和模塊,不乏一些出色的解決方案,但當(dāng)我們將這些子任務(wù)整合到一個(gè)流水線中進(jìn)行全景分割時(shí),就會(huì)產(chǎn)生不需要的構(gòu)件,在一些比較棘手的情況下更是如此(例如,兩個(gè)具有相似邊界框的人都觸發(fā) NMS,從而導(dǎo)致其中一個(gè)遮罩缺失)。

以往提出的 DETR 方法簡(jiǎn)化邊界框檢測(cè)子任務(wù)成端到端操作來解決其中一些問題,事實(shí)證明,這種做法的計(jì)算效率更高,產(chǎn)生的無關(guān)構(gòu)件也更少。然而,訓(xùn)練過程在很大程度上仍然依賴邊界框檢測(cè),這顯然與基于遮罩的全景分割定義不相符。另一種做法是將邊界框從管線中徹底移除,這樣做的好處是消除了整個(gè)子任務(wù)及其相關(guān)模塊和構(gòu)件。例如,Axial-DeepLab預(yù)測(cè)預(yù)定義實(shí)例中心的像素偏移量時(shí),如果圖像平面中有各種各樣的形狀,或相鄰對(duì)象的中心點(diǎn)較為接近,例如下面這張狗狗坐在椅子上的圖像,那它所使用的子任務(wù)則會(huì)遇到對(duì)象嚴(yán)重變形的挑戰(zhàn)。

當(dāng)狗狗的中心和椅子的中心接近重合時(shí),Axial-DeepLab 就會(huì)將它們合并成一個(gè)對(duì)象

在《MaX-DeepLab:利用遮罩 Transformer 實(shí)現(xiàn)端到端全景分割 (MaX-DeepLab: End-to-End Panoptic Segmentation with Mask Transformers)》(將提交給 CVPR 2021 大會(huì))一文中,我們首次為全景分割管線提出了完全的端到端方法——將 Transformer架構(gòu)擴(kuò)展到此計(jì)算機(jī)視覺任務(wù)中,直接預(yù)測(cè)具有類標(biāo)簽的遮罩。這種方法叫做 MaX-DeepLab,利用 Mask Xformer 對(duì) Axial-DeepLab 進(jìn)行擴(kuò)展。該方法采用雙路徑架構(gòu),引入了全局內(nèi)存路徑,允許與任何卷積層直接通信。MaX-DeepLab 最終在極具挑戰(zhàn)的COCO數(shù)據(jù)集上以及無邊界框的狀態(tài)下實(shí)現(xiàn)了 7.1% 的顯著全景質(zhì)量 (PQ) 增益,首次消除了有邊界框方法和無邊界框方法之間的差距。在不增加測(cè)試時(shí)長(zhǎng)的情況下,就 PQ 方面而言,MaX-DeepLab 在 COCO 測(cè)試開發(fā)集上達(dá)到了 51.3% 的水平,這已是目前的最高水準(zhǔn)。

MaX-DeepLab 是完全端到端的:直接從圖像中預(yù)測(cè)全景分割遮罩

端到端全景分割

受 DETR 啟發(fā),我們的模型使用經(jīng)過 PQ 類目標(biāo)優(yōu)化的輸出遮罩和類,直接預(yù)測(cè)一組不相重疊的遮罩及其相應(yīng)的語義標(biāo)簽。具體來說,我們受到評(píng)估指標(biāo) PQ 的定義:識(shí)別質(zhì)量(預(yù)測(cè)的類是否正確)乘以分割質(zhì)量(預(yù)測(cè)的遮罩是否正確)的啟發(fā),以一模一樣的方式在兩個(gè)具有類標(biāo)簽的遮罩之間定義了一個(gè)相似度指標(biāo)。直接通過一對(duì)一匹配,最大化實(shí)際遮罩和預(yù)測(cè)遮罩之間的這種相似度,直接對(duì)模型進(jìn)行訓(xùn)練。這種對(duì)全景分割的直接建模使端到端訓(xùn)練和推理成為可能,消除了現(xiàn)有的有邊界框方法和無邊界框方法必須手工設(shè)計(jì)先驗(yàn)的弊端。

與卷積神經(jīng)網(wǎng)絡(luò) (CNN) 上堆疊傳統(tǒng) Transformer 的方案不同,我們提出了一種結(jié)合 CNN 與 Transformer 的雙路徑框架。具體而言,我們通過一個(gè)雙路徑 Transformer 元件,使 CNN 層能夠從全局內(nèi)存中讀寫數(shù)據(jù)。這里所說的這個(gè)元件采用了 CNN 路徑和內(nèi)存路徑之間的所有四種注意力 (Attention) 類型,可以插入到 CNN 中的任意位置,從而允許在任何層與全局內(nèi)存通信。MaX-DeepLab 還利用堆疊的沙漏式解碼器,可將多種尺度特征聚合成高分辨率輸出。然后系統(tǒng)會(huì)將該輸出與全局內(nèi)存特征相乘,形成遮罩組預(yù)測(cè)。至于遮罩類別,則使用另一種 Transformer 進(jìn)行預(yù)測(cè)。

雙路徑 Transformer 架構(gòu)概覽

結(jié)果

我們?cè)跇O具挑戰(zhàn)性的 COCO 全景分割數(shù)據(jù)集上,分別使用先進(jìn)的無邊界框方法 (Axial-DeepLab) 和有邊界框方法 (DetectoRS) 對(duì) MaX-DeepLab 進(jìn)行了評(píng)估。在不增加測(cè)試時(shí)長(zhǎng)的情況下,就 PQ 方面而言,MaX-DeepLab 在 COCO 測(cè)試開發(fā)集上達(dá)到了 51.3% 的水平,這已是目前的最高水準(zhǔn)。

在無邊界框狀態(tài)下,就 PQ 方面而言,這一結(jié)果比 Axial-DeepLab 高出 7.1%,比 DetectoRS 高出 1.7%,第一次消除了有邊界框方法和無邊界框方法之間的差距。為了與 DETR 進(jìn)行一致的比較,我們還評(píng)估了與 DETR 參數(shù)數(shù)量和算力均一致的輕量級(jí) MaX-DeepLab 版本。就 PQ 方面而言,此輕量級(jí) MaX-DeepLab 在 val 集上的表現(xiàn)優(yōu)于 DETR 3.3%,在測(cè)試開發(fā)集上的表現(xiàn)優(yōu)于 DETR 3.0%。此外,我們還對(duì)端到端表達(dá)式、模型伸縮、雙路徑架構(gòu)和損失函數(shù)進(jìn)行了廣泛的消融研究和分析。此外,MaX-DeepLab 也不像 DETR 一樣需要超長(zhǎng)訓(xùn)練計(jì)劃。

MaX-DeepLab 正確地分割了一只坐在椅子上的狗。Axial-DeepLab依賴于回歸對(duì)象中心偏移量的代理任務(wù)。它之所以失敗,是因?yàn)楣泛鸵巫拥闹行奶^于接近。作為代理任務(wù),DetectoRS 會(huì)將對(duì)象的邊界框而非遮罩進(jìn)行分類。由于椅子的邊界框置信度較低,所以就被濾除了。

關(guān)于 MaX-DeepLab 和先進(jìn)的無邊界框及有邊界框方法的案例研究

還有一個(gè)例子可以證明 MaX-DeepLab 可以在充滿挑戰(zhàn)的條件下正確分割圖像。

MaX-DeepLab 正確分割了相互重疊的斑馬。此例對(duì)于其他方法也非常具有挑戰(zhàn)性,因?yàn)檫@兩只斑馬的邊界框很相似,對(duì)象的中心也很接近

結(jié)論

我們首次證明了全景分割可以進(jìn)行端到端訓(xùn)練。MaX-DeepLab 使用遮罩 Transformer 直接預(yù)測(cè)遮罩和類,消除了手工設(shè)計(jì)對(duì)于經(jīng)驗(yàn)的依賴,如對(duì)象邊界框、thing-stuff(thing 類物體和 stuff 類物體)合并等。借助 PQ 式損失函數(shù)和雙路徑 Transformer,MaX-DeepLab 在極具挑戰(zhàn)性的 COCO 數(shù)據(jù)集上取得了最高水準(zhǔn)的結(jié)果,消除了有邊界框方法和無邊界框方法之間的差距。

原文標(biāo)題:MaX-DeepLab:用于端到端全景分割的雙路徑 Transformer

文章出處:【微信公眾號(hào):TensorFlow】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)視覺
    +關(guān)注

    關(guān)注

    8

    文章

    1698

    瀏覽量

    46030
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    329

    瀏覽量

    60540

原文標(biāo)題:MaX-DeepLab:用于端到端全景分割的雙路徑 Transformer

文章出處:【微信號(hào):tensorflowers,微信公眾號(hào):Tensorflowers】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    transformer專用ASIC芯片Sohu說明

    2022年,我們打賭說transformer會(huì)統(tǒng)治世界。 我們花了兩年時(shí)間打造Sohu,這是世界上第一個(gè)用于transformer(ChatGPT中的“T”)的專用芯片。 將transformer
    的頭像 發(fā)表于 01-06 09:13 ?111次閱讀
    <b class='flag-5'>transformer</b>專用ASIC芯片Sohu說明

    Transformer模型的具體應(yīng)用

    如果想在 AI 領(lǐng)域引領(lǐng)一輪新浪潮,就需要使用到 Transformer
    的頭像 發(fā)表于 11-20 09:28 ?488次閱讀
    <b class='flag-5'>Transformer</b>模型的具體應(yīng)用

    Transformer模型能夠做什么

    盡管名為 Transformer,但它們不是電視銀幕上的變形金剛,也不是電線桿上垃圾桶大小的變壓器。
    的頭像 發(fā)表于 11-20 09:27 ?343次閱讀
    <b class='flag-5'>Transformer</b>模型能夠做什么

    英偉達(dá)推出歸一化Transformer,革命性提升LLM訓(xùn)練速度

    英偉達(dá)團(tuán)隊(duì)近日在AI領(lǐng)域投下了一枚震撼彈,他們提出了一種全新的神經(jīng)網(wǎng)絡(luò)架構(gòu)——?dú)w一化Transformer(nGPT)。這一創(chuàng)新架構(gòu)基于超球面(hypersphere)進(jìn)行表示學(xué)習(xí),為AI領(lǐng)域帶來
    的頭像 發(fā)表于 10-23 11:30 ?397次閱讀

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】--全書概覽

    、GPU、NPU,給我們剖析了算力芯片的微架構(gòu)。書中有對(duì)芯片方案商處理器的講解,理論聯(lián)系實(shí)際,使讀者能更好理解算力芯片。 全書共11章,由淺入深,較系統(tǒng)全面進(jìn)行講解。下面目錄對(duì)全書內(nèi)容有一個(gè)整體了解
    發(fā)表于 10-15 22:08

    Transformer能代替圖神經(jīng)網(wǎng)絡(luò)嗎

    Transformer作為一種在處理序列數(shù)據(jù)方面表現(xiàn)出色的深度學(xué)習(xí)模型,自其提出以來,已經(jīng)在自然語言處理(NLP)、時(shí)間序列分析等領(lǐng)域取得了顯著的成果。然而,關(guān)于Transformer是否能完全代替圖神經(jīng)網(wǎng)絡(luò)(GNN)的問題,需要從多個(gè)維度進(jìn)行深入探討。
    的頭像 發(fā)表于 07-12 14:07 ?479次閱讀

    Transformer語言模型簡(jiǎn)介與實(shí)現(xiàn)過程

    在自然語言處理(NLP)領(lǐng)域,Transformer模型以其卓越的性能和廣泛的應(yīng)用前景,成為了近年來最引人注目的技術(shù)之一。Transformer模型由谷歌在2017年提出,并首次應(yīng)用于神經(jīng)機(jī)器翻譯
    的頭像 發(fā)表于 07-10 11:48 ?1850次閱讀

    Transformer架構(gòu)在自然語言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語言處理(NLP)領(lǐng)域取得了顯著的進(jìn)步。其中,Transformer架構(gòu)的提出,為NLP領(lǐng)域帶來了革命性的變革。本文將深入探討Transformer架構(gòu)
    的頭像 發(fā)表于 07-09 11:42 ?850次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領(lǐng)域取得了巨大的成功,并成為了許多先進(jìn)模型(如BERT、GPT等)的基礎(chǔ)。本文將深入解讀如何使用PyTorch框架搭建Transformer模型,包括模型的結(jié)構(gòu)、訓(xùn)練過程、關(guān)鍵組件以及實(shí)現(xiàn)細(xì)節(jié)。
    的頭像 發(fā)表于 07-02 11:41 ?1691次閱讀

    Transformer 能代替圖神經(jīng)網(wǎng)絡(luò)嗎?

    當(dāng)Transformer模型發(fā)布時(shí),它徹底革新了機(jī)器翻譯領(lǐng)域。雖然最初是為特定任務(wù)設(shè)計(jì)的,但這種革命性的架構(gòu)顯示出它可以輕松適應(yīng)不同的任務(wù)。隨后成為了Transformer一個(gè)標(biāo)準(zhǔn),甚至用于它最
    的頭像 發(fā)表于 07-02 08:27 ?364次閱讀
    <b class='flag-5'>Transformer</b> 能代替圖神經(jīng)網(wǎng)絡(luò)嗎?

    基于xLSTM和Transformer的模型評(píng)估:xLSTM在“語言能力”的表現(xiàn)

    近期,Hochreiter在arXiv平臺(tái)發(fā)表論文,推出了一款新型的XLSTM(擴(kuò)展LSTM)架構(gòu),有效克服了傳統(tǒng)LSTM互聯(lián)網(wǎng)結(jié)構(gòu)“僅能按時(shí)間順序處理信息”的局限性,有望挑戰(zhàn)當(dāng)前熱門的Transformer架構(gòu)
    的頭像 發(fā)表于 05-13 10:31 ?830次閱讀

    基于Transformer模型的壓縮方法

    基于Transformer架構(gòu)的大型模型在人工智能領(lǐng)域中發(fā)揮著日益重要的作用,特別是在自然語言處理(NLP)和計(jì)算機(jī)視覺(CV)領(lǐng)域。
    的頭像 發(fā)表于 02-22 16:27 ?672次閱讀
    基于<b class='flag-5'>Transformer</b>模型的壓縮方法

    PSoC架構(gòu)核都可以訪問全部外設(shè)嗎?

    你好!如標(biāo)題:PSoC 架構(gòu)中兩個(gè)內(nèi)核對(duì)芯片的全部外設(shè)都有直接訪問能力嘛?如果都可以直接訪問,那IPC模塊的主要應(yīng)用場(chǎng)景是哪些呢?
    發(fā)表于 02-02 11:44

    基于Transformer的多模態(tài)BEV融合方案

    由于大量的相機(jī)和激光雷達(dá)特征以及注意力的二次性質(zhì),將 Transformer 架構(gòu)簡(jiǎn)單地應(yīng)用于相機(jī)-激光雷達(dá)融合問題是很困難的。
    發(fā)表于 01-23 11:39 ?870次閱讀
    基于<b class='flag-5'>Transformer</b>的多模態(tài)BEV融合方案

    電源路徑的基本概念

    電源路徑是指電流從電源到負(fù)載的傳輸路徑。在電路中,電源是提供電能的設(shè)備,而負(fù)載則是消耗電能的設(shè)備。電源路徑的穩(wěn)定性和效率對(duì)電路的性能和可靠性有著重要的影響。本文將介紹電源路徑的基本概念
    的頭像 發(fā)表于 01-18 15:39 ?844次閱讀
    電源<b class='flag-5'>路徑</b>的基本概念
    主站蜘蛛池模板: 国产99精品视频一区二区三区| 四虎影视国产精品亚洲精品| 色翁荡熄月月| 亚洲区视频在线观看| yellow在线中文| 中文无码乱人伦中文视频播放| 24小时日本高清免费看| 俄罗斯12一15处交| 久久精品国产在热亚洲| 热中文热国产热综合| 亚洲精品福利在线| 99久久国产综合精品国| 国产人成精品综合欧美成人| 鲁一鲁亚洲无线码| 玩两个少妇女邻居| 做暖免费观看日本| 国产精品九九久久| 麻豆沈芯语| 小货SAO边洗澡边CAO你动漫| 2021久久最新国产精品| 国产免费阿v精品视频网址| 美女被C污黄网站免费观看| 日韩欧美一区二区中文字幕| 一道精品视频一区二区| 成人特级毛片| 久久亚洲国产成人影院| 无码丰满人妻熟妇区| 99国产亚洲精品无码成人| 国产综合在线视频| 日本zljzljzlj精品| 中文人妻熟妇精品乱又伦| 国产欧美日韩网站| 品色堂主页| 中国人泡妞xxxxxxxx19| 国产精品久久久精品a级小说| 蜜芽丅v新网站在线观看| 亚洲精品www久久久久久久软件 | 欧美成人免费观看久久| 亚洲婷婷天堂综合国产剧情| 国产VA精品午夜福利视频| 男人桶女人j的视频在线观看|