隨著注意力機制在自然語言處理和計算機視覺等多個人工智能領(lǐng)域風靡,計算機視覺領(lǐng)域刷榜之爭可謂是進入白熱化階段。
近期大量工作刷新現(xiàn)有各項任務(wù)SOTA:前腳谷歌剛在圖像識別ImageNet上準確度超過90,緊接著微軟又在目標檢測COCO上AP超過60。
在一篇CVPR 2021 論文中,來自微軟的研究者提出多重注意力機制統(tǒng)一目標檢測頭方法Dynamic Head, 可插拔特性提高多種目標檢測框架的性能。
在Transformer骨干和額外數(shù)據(jù)加持下,COCO單模型測試取得新紀錄:60.6 AP。
方法概述
本文首先對現(xiàn)有目標檢測頭的改進工作進行了總結(jié),發(fā)現(xiàn)近期方法主要通過三個不同的角度出發(fā)進行目標檢測性能的提升:
尺度感知:目標尺度的差異對應(yīng)了不同尺度的特征,改進不同級的表達能力可以有效提升目標檢測器的尺度感知能力;
空間位置:不相似目標形狀的不同幾何變換對應(yīng)了特征的不同空間位置,改進不同空間位置的表達能力可以有效提升目標檢測器的空間位置感知能力;
多任務(wù):目標表達與任務(wù)的多樣性對應(yīng)了不同通道特征,改進不同通道的表達能力可以有效提升目標檢測的任務(wù)感知能力。
本文提出一種新穎的動態(tài)頭框架,它采用多注意力機制將不同的目標檢測頭進行統(tǒng)一。
通過特征層次之間的注意力機制用于尺度感知,空間位置之間的注意力機制用于空間感知,輸出通道內(nèi)的注意力機制用于任務(wù)感知,該方法可以在不增加計算量的情況顯著提升模型目標檢測頭的表達能力。
為了達成以上目的,本文對特征金字塔進行重構(gòu),將不同層級的特征統(tǒng)一到一個3D張量,并發(fā)現(xiàn)在不同維度引入注意力機制可以提高對尺度,空間位置和多任務(wù)的感知能力。
因此上述方向可以統(tǒng)一到一個高效注意力學習問題中。本文也是首個嘗試采用多注意力機制將三個維度組合構(gòu)建統(tǒng)一頭并最大化其性能的工作。
作者將注意力函數(shù)轉(zhuǎn)換為三個序列子注意力函數(shù)來解決傳統(tǒng)注意力函數(shù)在高維度導致計算量激增的問題。
每個注意力函數(shù)僅聚焦一個維度:基于SE模塊的尺度自注意函數(shù)π_L, 基于可變形卷積的空間自注意函數(shù)π_S 和 基于動態(tài)ReLU激活函數(shù)的多任務(wù)的自注意函數(shù)π_C。
作者將三種自注意函數(shù)進行堆疊,形成一個可輕易插拔的模塊DyHead,并將其應(yīng)用于多種目標檢測框架中。
實驗結(jié)果
作者首先分析了的計算效率。當采用6個模塊時,模型性能提升達到最大,而計算量提升相比骨干網(wǎng)絡(luò)可以忽略。
作者將DyHead集成到不同檢測器進行性能對比,發(fā)現(xiàn)所提DyHead可以一致性提升所有主流目標檢測器性能:1.2~3.2AP,展示了優(yōu)異的可插拔擴展性能。
在與其他目標檢測方法的對比中,所提方案以較大的優(yōu)勢超越了流行方案。相比僅采用多尺度尋覽的方法,所提方案僅需2x訓練即可取得新的SOTA指標52.3AP。相對于谷歌提出的EfficientDet與SpineNet,所提方法訓練時間更少(僅1/20);
當同時采用多尺度訓練與測試時,所提方法取得了新的SOTA指標54.0AP,以1.3AP指標優(yōu)于此前最佳。
當引入更優(yōu)異的Transformer骨干網(wǎng)絡(luò)、以及通過類似于谷歌自我學習方法生成的額外偽框的ImageNet數(shù)據(jù)后,所提方案取得了COCO新的記錄:60.6 AP,成為首個超過60的單模型方法。
責任編輯:lq6
-
計算機視覺
+關(guān)注
關(guān)注
8文章
1698瀏覽量
45982 -
自然語言處理
+關(guān)注
關(guān)注
1文章
618瀏覽量
13553
原文標題:刷新記錄! CVPR2021全新目標檢測機制達到SOTA!
文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論