色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

卷積神經網絡結構組成與解釋

Dbwd_Imgtec ? 來源:未知 ? 2023-06-27 10:20 ? 次閱讀
來源:機器學習算法那些事
卷積神經網絡是以卷積層為主的深度網路結構,網絡結構包括有卷積層、激活層、BN層、池化層、FC層、損失層等。卷積操作是對圖像和濾波矩陣做內積(元素相乘再求和)的操作。

1. 卷積層

常見的卷積操作如下:
卷積操作 解釋 圖解
標準卷積 一般采用3x3、5x5、7x7的卷積核進行卷積操作。???????

wKgZomTn-mCABSJ_AALpQgaVk54548.gif

分組卷積 將輸入特征圖按通道均分為 x 組,然后對每一組進行常規卷積,最后再進行合并。

wKgZomTn-mCAfp9zAAG0j6-_DtU602.png

空洞卷積 為擴大感受野,在卷積核里面的元素之間插入空格來“膨脹”內核,形成“空洞卷積”(或稱膨脹卷積),并用膨脹率參數L表示要擴大內核的范圍,即在內核元素之間插入L-1個空格。當L=1時,則內核元素之間沒有插入空格,變為標準卷積。

wKgZomTn-mCAXgZFAABNCc-q15Y125.png

深度可分離卷積 深度可分離卷積包括為逐通道卷積和逐點卷積兩個過程。????

wKgZomTn-mGAIj5CAAHCtbtmMps132.png

(通道卷積,2D標準卷積)

wKgZomTn-mGAYG2yAAE-7ndBAw0817.png

(逐點卷積,1x1卷積

反卷積 屬于上采樣過程,“反卷積”是將卷積核轉換為稀疏矩陣后進行轉置計算。

wKgZomTn-mGASZesAAA-z4w-FiA211.png

可變形卷積 指標準卷積操作中采樣位置增加了一個偏移量offset,如此卷積核在訓練過程中能擴展到很大的范圍。

wKgZomTn-mGAIYwaAAGksD8YjKM025.png

補充:

1 x 1卷積即用1 x 1的卷積核進行卷積操作,其作用在于升維與降維。升維操作常用于chennel為1(即是通道數為1)的情況下,降維操作常用于chennel為n(即是通道數為n)的情況下。??????????????

降維:通道數不變,數值改變。

wKgZomTn-mGAdnkWAACWWZWYNG8958.png升維:通道數改變為kernel的數量(即為filters),運算本質可以看為全連接。wKgZomTn-mGAIegwAAD3jsM_X7E311.png卷積計算在深度神經網絡中的量是極大的,壓縮卷積計算量的主要方法如下:
序號 方法
1 采用多個3x3卷積核代替大卷積核(如用兩個3 x 3的卷積核代替5 x 5的卷積核)
2 采用深度可分離卷積(分組卷積)
3 通道Shuffle
4 Pooling層
5 Stride = 2
6 等等

2. 激活層

介紹:為了提升網絡的非線性能力,以提高網絡的表達能力。每個卷積層后都會跟一個激活層。激活函數主要分為飽和激活函數(sigmoid、tanh)與非飽和激活函數(ReLU、Leakly ReLU、ELU、PReLU、RReLU)。非飽和激活函數能夠解決梯度消失的問題,能夠加快收斂速度。??????????????常用函數:ReLU函數、Leakly ReLU函數、ELU函數等wKgZomTn-mGAfZGbAABqysWUDw4818.pngReLU函數wKgZomTn-mKAQcPqAACJ3D6-0xg266.pngLeakly ReLU函數

wKgZomTn-mKAHQbMAACL3KN7cnc975.png

ELU函數


3. BN層(BatchNorm)介紹:通過一定的規范化手段,把每層神經網絡任意神經元的輸入值的分布強行拉回到均值為0,方差為1的標準正態分布。BatchNorm是歸一化的一種手段,會減小圖像之間的絕對差異,突出相對差異,加快訓練速度。但不適用于image-to-image以及對噪聲明感的任務中。常用函數:BatchNorm2dpytorch用法:nn.BatchNorm2d(num_features, eps, momentum, affine)num_features:一般輸入參數為batch_sizenum_featuresheight*width,即為其中特征的數量。eps:分母中添加的一個值,目的是為了計算的穩定性,默認為:1e-5。momentum:一個用于運行過程中均值和方差的一個估計參數(我的理解是一個穩定系數,類似于SGD中的momentum的系數)。

affine:當設為true時,會給定可以學習的系數矩陣gamma和beta。


4. 池化層(pooling)介紹:pooling一方面使特征圖變小,簡化網絡計算復雜度。一方面通過多次池化壓縮特征,提取主要特征。屬于下采樣過程常用函數:Max Pooling(最大池化)、Average Pooling(平均池化)等。MaxPooling 與 AvgPooling用法:1. 當需綜合特征圖上的所有信息做相應決策時,通常使用AvgPooling,例如在圖像分割領域中用Global AvgPooling來獲取全局上下文信息;在圖像分類中在最后幾層中會使用AvgPooling。2. 在圖像分割/目標檢測/圖像分類前面幾層,由于圖像包含較多的噪聲和目標處理無關的信息,因此在前幾層會使用MaxPooling去除無效信息。wKgZomTn-mKAP_nDAADxX1uRkHc094.png

補充:上采樣層重置圖像大小為上采樣過程,如Resize,雙線性插值直接縮放,類似于圖像縮放,概念可見最鄰近插值算法和雙線性插值算法。實現函數有nn.functional.interpolate(input, size = None, scale_factor = None, mode = 'nearest', align_corners = None)和nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride = 1, padding = 0, output_padding = 0, bias = True)


5. FC層(全連接層)介紹:連接所有的特征,將輸出值送給分類器。主要是對前層的特征進行一個加權和(卷積層是將數據輸入映射到隱層特征空間),將特征空間通過線性變換映射到樣本標記空間(label)。全連接層可以通過1 x 1卷機+global average pooling代替。可以通過全連接層參數冗余,全連接層參數和尺寸相關。常用函數:nn.Linear(in_features, out_features, bias)wKgZomTn-mKAa6UhAAChrapTAFw686.jpg補充:分類器包括線性分類器與非線性分類器。
分類器 介紹?? 常見種類 優缺點
線性分類器 線性分類器就是用一個“超平面”將正、負樣本隔離開 LR、Softmax、貝葉斯分類、單層感知機、線性回歸、SVM(線性核)等 線性分類器速度快、編程方便且便于理解,但是擬合能力低
非線性分類器 非線性分類器就是用一個“超曲面”或者多個超平(曲)面的組合將正、負樣本隔離開(即,不屬于線性的分類器) 決策樹、RF、GBDT、多層感知機、SVM(高斯核)等 非線性分類器擬合能力強但是編程實現較復雜,理解難度大


6. 損失層介紹:設置一個損失函數用來比較網絡的輸出和目標值,通過最小化損失來驅動網絡的訓練。網絡的損失通過前向操作計算,網絡參數相對于損失函數的梯度則通過反向操作計算。

常用函數:分類問題損失(離散值:分類問題、分割問題):nn.BCELoss、nn.CrossEntropyLoss等。回歸問題損失(連續值:推測問題、回歸分類問題):nn.L1Loss、nn.MSELoss、nn.SmoothL1Loss等。


7. Dropout層

介紹:在不同的訓練過程中隨機扔掉一部分神經元,以防止過擬合,一般用在全連接層。在測試過程中不使用隨機失活,所有的神經元都激活。?????????????????????

常用函數:nn.dropout
8. 優化器介紹:為了更高效的優化網絡結構(損失函數最小),即是網絡的優化策略,主要方法如下:
解釋?? 優化器種類? 特點
基于梯度下降原則(均使用梯度下降算法對網絡權重進行更新,區別在于使用的樣本數量不同)?????? GD(梯度下降); SGD(隨機梯度下降,面向一個樣本); BGD(批量梯度下降,面向全部樣本); MBGD(小批量梯度下降,面向小批量樣本)????? 引入隨機性和噪聲
基于動量原則(根據局部歷史梯度對當前梯度進行平滑) Momentum(動量法); NAG(Nesterov Accelerated Gradient)
???
加入動量原則,具有加速梯度下降的作用????
自適應學習率(對于不同參數使用不同的自適應學習率;Adagrad使用梯度平方和、Adadelta和RMSprop使用梯度一階指數平滑,RMSprop是Adadelta的一種特殊形式、Adam吸收了Momentum和RMSprop的優點改進了梯度計算方式和學習率)??? Adagrad; Adadelta; RMSprop; Adam????? 自適應學習
常用優化器為Adam,用法為:torch.optim.Adam。???????

補充:卷積神經網絡正則化是為減小方差,減輕過擬合的策略,方法有:L1正則(參數絕對值的和); L2正則(參數的平方和,weight_decay:權重衰退)。


9. 學習率?介紹:學習率作為監督學習以及深度學習中重要的超參,其決定著目標函數能否收斂到局部最小值以及合適收斂到最小值。合適的學習率能夠使目標函數在合適的時間內收斂到局部最小值。????

常用函數:torch.optim.lr_scheduler; ExponentialLR; ReduceLROnplateau; CyclicLR等。???????


卷積神經網絡的常見結構

常見結構有:跳連結構(ResNet)、并行結構(Inception V1-V4即GoogLeNet)、輕量型結構(MobileNetV1)、多分支結構(SiameseNet; TripletNet; QuadrupletNet; 多任務網絡等)、Attention結構(ResNet+Attention)

結構???????????? 介紹與特點 圖示
跳連結構(代表:ResNet) 2015年何愷明團隊提出。引入跳連的結構來防止梯度消失問題,今兒可以進一步加大網絡深度。擴展結構有:ResNeXt、DenseNet、WideResNet、ResNet In ResNet、Inception-ResNet等???????????????

wKgZomTn-mKAGpyuAAD6Gk-bPv4430.png

并行結構(代表:Inception V1-V4 2014年Google團隊提出。不僅強調網絡的深度,還考慮網絡的寬度。其使用1×1的卷積來進行升降維,在多個尺寸上同時進行卷積再聚合。其次利用稀疏矩陣分解成密集矩陣計算的原理加快收斂速度。??

wKgZomTn-mKAEnfQAABW4twhBEI811.jpg

輕量型結構(代表:MobileNetV1 2017年Google團隊提出。為了設計能夠用于移動端的網絡結構,使用Depth-wise Separable Convolution的卷積方式代替傳統卷積方式,以達到減少網絡權值參數的目的。擴展結構有:MobileNetV2、MobileNetV3、SqueezeNet、ShuffleNet V1、ShuffleNet V2等????????

wKgZomTn-mKAc4rbAAEwUHTOThE845.png

多分支結構(代表:TripletNet? 基于多個特征提取方法提出,通過比較距離來學習有用的變量。該網絡由3個具有相同前饋網絡(共享參數)組成的,需要輸入是3個樣本,一個正樣本和兩個負樣本,或者一個負樣本和兩個正樣本。訓練的目標是讓相同類別之間的距離竟可能的小,讓不同的類別之間距離竟可能的大。常用于人臉識別。

wKgZomTn-mKAPZNiAACLX2W0lH4304.jpg

Attention結構(代表:ResNet+Attention) 對于全局信息,注意力機制會重點關注一些特殊的目標區域,也就是注意力焦點,進而利用有限的注意力資源對信息進行篩選,提高信息處理的準確性和效率。注意力機制有Soft-Attention和Hard-Attention區分,可以作用在特征圖上、尺度空間上、channel尺度上和不同時刻歷史特征上等。??????????????

wKgZomTn-mOAHCURAALNtxmdgiA258.png

參考資料鏈接:??https://www.bilibili.com/video/BV1we4y1X7vy/?spm_id_from=333.880.my_history.page.click&vd_source=8332e741acbb75b438e9c1c91efed022

END

歡迎加入Imagination GPU人工智能交流2群

wKgZomTn-mOAV_0GAABN8aBfIqc985.jpg

入群請加小編微信:eetrend89

(添加請備注公司名和職稱)

推薦閱讀 對話Imagination中國區董事長:以GPU為支點加強軟硬件協同,助力數字化轉型

Imagination Technologies是一家總部位于英國的公司,致力于研發芯片和軟件知識產權(IP),基于Imagination IP的產品已在全球數十億人的電話、汽車、家庭和工作 場所中使用。獲取更多物聯網智能穿戴、通信汽車電子、圖形圖像開發等前沿技術信息,歡迎關注 Imagination Tech!


原文標題:卷積神經網絡結構組成與解釋

文章出處:【微信公眾號:Imagination Tech】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • imagination
    +關注

    關注

    1

    文章

    573

    瀏覽量

    61316

原文標題:卷積神經網絡結構組成與解釋

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    卷積神經網絡的工作原理和應用

    卷積神經網絡(FCN)是深度學習領域中的一種特殊類型的神經網絡結構,尤其在計算機視覺領域表現出色。它通過全局平均池化或轉置卷積處理任意尺寸的輸入,特別適用于像素級別的任務,如圖像分割
    的頭像 發表于 07-11 11:50 ?1101次閱讀

    循環神經網絡卷積神經網絡的區別

    循環神經網絡(Recurrent Neural Network,RNN)和卷積神經網絡(Convolutional Neural Network,CNN)是深度學習領域中兩種非常重要的神經網絡
    的頭像 發表于 07-04 14:24 ?1267次閱讀

    卷積神經網絡與循環神經網絡的區別

    網絡結構,分別適用于不同的應用場景。本文將從基本概念、結構組成、工作原理及應用領域等方面對這兩種神經網絡進行深入解讀。
    的頭像 發表于 07-03 16:12 ?3190次閱讀

    卷積神經網絡的實現原理

    卷積神經網絡(Convolutional Neural Networks,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、視頻分析、自然語言處理等領域。本文將詳細介紹卷積神經網絡
    的頭像 發表于 07-03 10:49 ?537次閱讀

    bp神經網絡卷積神經網絡區別是什么

    結構、原理、應用場景等方面都存在一定的差異。以下是對這兩種神經網絡的比較: 基本結構 BP神經網絡是一種多層前饋神經網絡,由輸入層、隱藏層和
    的頭像 發表于 07-03 10:12 ?1154次閱讀

    卷積神經網絡的基本結構和工作原理

    卷積神經網絡(Convolutional Neural Networks,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、視頻分析、自然語言處理等領域。本文將詳細介紹卷積神經網絡
    的頭像 發表于 07-03 09:38 ?573次閱讀

    卷積神經網絡激活函數的作用

    卷積神經網絡(Convolutional Neural Networks, CNNs)是深度學習中一種重要的神經網絡結構,廣泛應用于圖像識別、語音識別、自然語言處理等領域。在卷積
    的頭像 發表于 07-03 09:18 ?869次閱讀

    卷積神經網絡訓練的是什么

    卷積神經網絡(Convolutional Neural Networks,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、視頻分析、自然語言處理等領域。本文將詳細介紹卷積神經網絡
    的頭像 發表于 07-03 09:15 ?397次閱讀

    卷積神經網絡的基本結構和訓練過程

    卷積神經網絡(Convolutional Neural Networks,CNN)是一種在圖像識別、視頻處理、自然語言處理等多個領域廣泛應用的深度學習算法。其獨特的網絡結構和算法設計,使得CNN在
    的頭像 發表于 07-02 18:27 ?856次閱讀

    卷積神經網絡的原理與實現

    1.卷積神經網絡(Convolutional Neural Networks,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、視頻分析、自然語言處理等領域。 卷積神經網絡是一種前饋
    的頭像 發表于 07-02 16:47 ?565次閱讀

    卷積神經網絡的基本結構及其功能

    卷積神經網絡(Convolutional Neural Network,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、視頻分析、自然語言處理等領域。本文將詳細介紹卷積神經網絡的基
    的頭像 發表于 07-02 14:45 ?1545次閱讀

    卷積神經網絡的原理是什么

    基本概念、結構、訓練過程以及應用場景。 卷積神經網絡的基本概念 1.1 神經網絡 神經網絡是一種受人腦
    的頭像 發表于 07-02 14:44 ?634次閱讀

    卷積神經網絡和bp神經網絡的區別

    卷積神經網絡(Convolutional Neural Networks,簡稱CNN)和BP神經網絡(Backpropagation Neural Networks,簡稱BPNN)是兩種
    的頭像 發表于 07-02 14:24 ?3650次閱讀

    卷積神經網絡的基本原理、結構及訓練過程

    卷積神經網絡(Convolutional Neural Network,簡稱CNN)是一種深度學習算法,廣泛應用于圖像識別、視頻分析、自然語言處理等領域。本文將詳細介紹卷積神經網絡的基
    的頭像 發表于 07-02 14:21 ?2510次閱讀

    卷積神經網絡的基本結構

    廣泛應用于圖像識別、自然語言處理、語音識別等領域。本文將詳細闡述卷積神經網絡的概念、基本結構及其在各領域的應用。
    的頭像 發表于 07-01 15:58 ?438次閱讀
    主站蜘蛛池模板: 国产AV亚洲精品久久久久软件| 少妇无码太爽了视频在线播放| 最新色导航| BL全肉多攻NP高H| 免费观看美女的网站| 97成人精品视频在线播放| 免费看b站| caoporn超碰在线| 欧美午夜a级精美理论片| seyeye在清在线| 乳女教师欲乱动漫无修版动画| 国产69精品久久久久乱码| 少妇久久久久久被弄高潮| 国产精品久久人妻无码网站一区L| 偷偷鲁青春草原视频| 亚洲国产成人爱AV在线播放丿| 国产高清精品自在久久| 欧美日韩无套内射另类| Y8848高清私人影院软件优势| 日韩人妻无码专区一本二本| 囯产精品久久久久久久久蜜桃| 婷婷亚洲AV色香蕉蜜桃| 国产亚洲精品AV麻豆狂野| 亚洲欭美日韩颜射在线二| 快播电影网址| china chinese中国人玩| 日本熟妇多毛XXXXX视频| 国产精自产拍久久久久久蜜 | 看看妇女的B免费看| 34g污奶绵uk甩奶| 暖暖视频免费高清在线观看 视频| 草莓西瓜樱桃香蕉直播视频| 色尼玛亚洲综合| 国产在线亚洲v天堂a| 中国农民真实bbwbbw| 欧美特级另类xxx| 国产精品-区区久久久狼| 一边吃奶一边啪啪真舒服| 男女车车的车车网站W98免费| 处88XXX| 亚洲高清无在码在线电影|