色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Dynamic ReLU:根據輸入動態確定的ReLU

冬至子 ? 來源:思否AI ? 作者:思否AI ? 2023-09-01 17:28 ? 次閱讀

這是我最近才看到的一篇論文,它提出了動態ReLU (Dynamic ReLU, DY-ReLU),可以將全局上下文編碼為超函數,并相應地調整分段線性激活函數。

與傳統的ReLU相比,DY-ReLU的額外計算成本可以忽略不計,但表示能力明顯增強,并且實現簡單,所以可以非常簡單的對我們現有的模型進行修改。

Dynamic ReLU (DY-ReLU)

對于給定的輸入向量(或張量)x,DY-ReLU被定義為具有可學習參數θ(x)的函數fθ(x)(x),該參數適應于輸入x,它包括兩個功能:

超函數θ(x):用于計算激活函數的參數。

激活函數fθ(x)(x):使用參數θ(x)生成所有通道的激活。

1、函數定義

設傳統的或靜態的ReLU為y = max(x, 0)。ReLU可以推廣為每個通道c的參數分段線性函數。

其中coeffcients ( akc , bkc )是超函數(x)的輸出,如下:

其中K是函數的個數,C是通道的個數。論文中K=2。

2、超函數θ(x)的實現

使用輕量級網絡對超函數進行建模,這個超函數類似于SENet中的SE模塊(稍后會介紹)。

輸出有2KC個元素,對應于a和b的殘差。2σ(x)-1用于對-1到1之間的殘差進行歸一化,其中σ(x)表示s型函數。最終輸出計算為初始化和殘差之和,如下所示:

其中λ是標量,這個公式也就是我們上面的圖

3、與先前研究的關系

可以看到DY-ReLU的三種特殊情況相當于ReLU、Leaky ReLU和PReLU。

4、DY-ReLU的變體

DY-ReLU-A:激活函數是空間和通道共享的。

DY-ReLU-B:激活函數是空間共享和通道相關的。

DY-ReLU-C:激活的是空間和通道分開的。

結果展示

1、消融研究

所有三種變化都比基線有所改善,但通道分開的DY-ReLU(變化B和C)明顯優于通道共享的DY-ReLU(變化A)。

所以根據上面結果,使用DY-ReLU-B進行ImageNet分類,使用DY-ReLU-C進行COCO關鍵點檢測

2、ImageNet分類

使用MobileNetV2 (×0.35和×1.0), 用不同的激活函數代替ReLU。所提出的方法明顯優于所有先前的工作,包括具有更多計算成本的Maxout。這表明DY-ReLU不僅具有更強的表示能力,而且計算效率高。

上圖繪制了5萬張驗證圖像在不同區塊(從低到高)的DY-ReLU輸入輸出值。可以看到學習到的DY-ReLU在特征上是動態的,因為對于給定的輸入x,激活值(y)在一個范圍內(藍點覆蓋的范圍)變化。

下圖分析DY-ReLU中兩段之間的夾角(即斜率差|a1c-a2c|)。激活函數在較高水平上具有較低的彎曲。

3、COCO關鍵點估計

當使用MobileNetV3作為骨干時,刪除SENet模塊,使用DY-ReLU替代ReLU和h-Swish后,結果也有提高。

總結

可以看到,只是使用DY-ReLU替換現有的激活函數,模型的表現明顯優于基線模型。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3638

    瀏覽量

    134427
收藏 人收藏

    評論

    相關推薦

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    連接層的一種替代方案,某些架構嘗試使用稀疏連接來減少參數數量并提高效率,比如通過只連接特定模式下的神經元。 動態架構調整:現代的一些研究探索了動態改變網絡結構的可能性,例如根據輸入樣本
    發表于 12-19 14:33

    caffe源碼解讀《十三》relu

    編程語言行業芯事經驗分享
    蒙特卡洛家的樹
    發布于 :2022年03月09日 13:41:01

    【NanoPi K1 Plus試用體驗】深度學習---快速開始序貫(Sequential)模型

    ('relu'),Dense(10),Activation('softmax'),])也可以通過.add()方法一個個的將layer加入模型中:model = Sequential()model.add
    發表于 07-20 15:55

    Keras可視化神經網絡架構的4種方法

    Boards 要求用戶在架構可視化之前根據準確的數據訓練模型。在開始進行可視化之前,我們先需要安裝相應的包:pip install visualkeras pip install ann_visualizer
    發表于 11-02 14:55

    bottom-up多層規約圖融合策略資料介紹

    (例如Conv+ReLU)則受限于供應商API的支持程度。  隨著AI模型在各領域的發展、成熟和落地,模型推理在具體設備上的性能變得越發重要,17年到18年,業界出現了大量面向DL模型推理的計算框架,算子
    發表于 11-09 17:33

    深度學習在醫學圖像分割與病變識別中的應用實戰

    ): inputs = Input(input_shape) # 編碼器部分 conv1 = Conv2D(32, (3, 3), activation=\'relu\', padding
    發表于 09-04 11:11

    【KV260視覺入門套件試用體驗】Vitis AI 通過遷移學習訓練自定義模型

    是ResNet系列中最簡單的一個模型,共有18層,其中包括: 一個7×7的卷積層,輸出通道數為64,步幅為2,后接批量歸一化(Batch Normalization)和ReLU激活函數。 一個3×3的最大池
    發表于 10-16 15:03

    技嘉 主板Dynamic Energy Saver動態節能工

    技嘉 主板Dynamic Energy Saver動態節能工具B8.0128.1版.zip
    發表于 01-27 14:27 ?15次下載

    深度ReLU網絡的訓練動態過程及其對泛化能力的影響

    基于這個框架,我們試圖用統一的觀點來解釋這些令人費解的經驗現象。本文使用師生設置,其中給過度參數化的深度學生ReLU網絡的標簽,是具有相同深度和未知權重的固定教師ReLU網絡的輸出(圖1(a))。在這個角度來看,隱藏的學生節點將隨機初始化為不同的激活區域。(圖2(a))
    的頭像 發表于 06-15 10:48 ?3349次閱讀
    深度<b class='flag-5'>ReLU</b>網絡的訓練<b class='flag-5'>動態</b>過程及其對泛化能力的影響

    ngx_dynamic_limit_req_module IP動態鎖定工具

    ./oschina_soft/ngx_dynamic_limit_req_module.zip
    發表于 05-07 09:29 ?0次下載
    ngx_<b class='flag-5'>dynamic</b>_limit_req_module IP<b class='flag-5'>動態</b>鎖定工具

    在PyTorch中使用ReLU激活函數的例子

    PyTorch已為我們實現了大多數常用的非線性激活函數,我們可以像使用任何其他的層那樣使用它們。讓我們快速看一個在PyTorch中使用ReLU激活函數的例子:
    的頭像 發表于 07-06 15:27 ?2537次閱讀

    RPN:Region Proposal Networks (區域候選網絡)

    圖片在輸入網絡后,依次經過一系列卷積+ReLU得到的51×39×256維feature map,準備后續用來選取proposal。
    的頭像 發表于 01-11 16:55 ?1390次閱讀
    RPN:Region Proposal Networks (區域候選網絡)

    Relu算子的介紹

    Relu是一種非線性激活函數,它的特點有運算簡單,不會在梯度處出現梯度消失的情況,而且它在一定程度上能夠防止深度學習模型在訓練中發生的過擬合現象。
    的頭像 發表于 01-11 17:07 ?1512次閱讀

    結合卷積層來創建一個完整的推理函數

    首先輸入一張1x28x28的圖片,然后兩次通過Conv2d -> ReLU -> MaxPool2d提取特征,最后轉為linear,> ReLU -> Linear為10階向量值。
    的頭像 發表于 03-13 09:22 ?721次閱讀

    深度ReLU網絡的對應淺層網絡

    ? 只要你用了ReLU,我們就是好朋就是“淺度學習”。 最近有研究證明,所有基于ReLU的深度神經網絡都可以重寫為功能相同的3層神經網絡。 ? 基于這個證明,倫敦國王學院的研究團隊還提出一種為任意
    的頭像 發表于 07-03 14:13 ?555次閱讀
    深度<b class='flag-5'>ReLU</b>網絡的對應淺層網絡
    主站蜘蛛池模板: 狠日狠干日曰射| 国产精品你懂的在线播放| 男人把女人桶到爽免费看视频 | 色综合99久久久国产AV| 视频一区二区三区蜜桃麻豆| 午夜福利体验免费体验区| 亚洲精品AV无码重口另类| 青青草国产偷拍在线av| 三级aa久久| 亚洲AV久久婷婷蜜臀无码不卡| 中文字幕 人妻熟女| 国产精品美女久久久久浪潮AV| 亚洲一级毛片免费在线观看| 秋霞网在线伦理免费| 日本人HD18HD18| 尿孔 调教 扩张| 日韩一区二区天海翼| 欧美色妞AV重囗味视频| 免费观看成人毛片| 伦理片飘花免费影院| 精品国产5g影院天天爽| 久久怡红院国产精品| 久久久久久亚洲精品影院| 久久成人a毛片免费观看网站| 蜜芽手机在线观看| 色拍拍噜噜噜啦啦新网站| 亚洲视频 在线观看| 99精品中文字幕在线观看| 国产成人久久精品激情| 国产ts在线| 久久久久久久久a免费| 欧美性XXXXX极品娇小| 亚洲国产黄色| 亚洲人女同志video| 99久久99久久久精品久久| 国产精品无码亚洲网| 国产精品爽爽久久久久久无码| 久久久久综合网| 少男同志freedeos| 最新日本免费一区| 国产精品99AV在线观看|