色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

CNN經典網絡結構之Le-Net5

lviY_AI_shequ ? 來源:未知 ? 作者:李倩 ? 2018-11-23 16:40 ? 次閱讀

在前幾次筆記中,筆者基本上將卷積神經網絡的基本原理給講完了。從本次筆記開始,筆者在深度學習筆記中會不定期的對 CNN 發展過程中的經典論文進行研讀并推送研讀筆記。今天筆者就和大家一起學習卷積神經網絡和深度學習發展歷史上具有奠基性的經典論文之一的關于 LeNet-5 網絡一文。LeNet-5 是由具有卷積神經網絡之父之美譽的 Yann LeCun 在1998年發表在 IEEE 上面的一篇 Gradient-based learning applied to document recognition 上提出來的,所以直接由 LeCun 大佬名字命名了。論文原文:http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf

LeNet-5 網絡結構

該篇論文有 42 頁,但關于 LeNet-5 網絡的核心部分并沒有那么多,我們直接定位第二章的B 小節進行閱讀。LeNet-5 的網絡結構如下:

LeNet-5 共有 7 層,輸入層不計入層數,每層都有一定的訓練參數,其中三個卷積層的訓練參數較多,每層都有多個濾波器,也叫特征圖,每個濾波器都對上一層的輸出提取不同的像素特征。所以 LeNet-5 的簡略結構如下:

輸入-卷積-池化-卷積-池化-卷積(全連接)-全連接-全連接(輸出)

各層的結構和參數如下:C1層是個卷積層,其輸入輸出結構如下:輸入: 32 x 32 x 1 濾波器大小: 5 x 5 x 1 濾波器個數:6輸出: 28 x 28 x 6參數個數: 5 x 5 x 1 x 6 + 6 = 156

P2層是個池化層,其輸入輸出結構如下:輸入: 28 x 28 x 6 濾波器大?。?2 x 2 濾波器個數:6輸出: 14 x 14 x 6參數個數:2 x 6 = 12在原文中,P1池化層采用的是平均池化,鑒于現在普遍都使用最大池化,所以在后面的代碼實現中我們統一采用最大池化。

C3層是個卷積層,其輸入輸出結構如下:輸入: 14 x 14 x 6 濾波器大?。?5 x 5 x 6 濾波器個數:16輸出: 10 x 10 x 16參數個數: 5 x 5 x 6 x 16 + 16 = 2416

P2 池化之后的特征圖組合計算得到C3的濾波器個數。

P4層是個池化層,其輸入輸出結構如下:輸入: 10 x 10 x 16 濾波器大?。?2 x 2 濾波器個數:16輸出: 5 x 5 x 16參數個數: 2 x 16 = 32

C5層在論文中是個卷積層,但濾波器大小為 5 x 5,所以其本質上也是個全連接層。如果將5 x 5 x 16 拉成一個向量,它就是一個全連接層。其輸入輸出結構如下:輸入: 5 x 5 x 16 濾波器大小: 5 x 5 x 16 濾波器個數:120輸出: 1 x 1 x 120參數個數: 5 x 5 x 16 x 120 + 120 = 48120

F6層是個全連接層,全連接的激活函數采用的是tanh函數,其輸入輸出結構如下:輸入:120輸出:84參數個數:120 x 84 + 84 = 10164

F7層即輸出層,也是個全連接層,其輸入輸出結構如下:輸入:84輸出:10參數個數: 84 x 10 + 10 = 850

LeNet-5 的Tensorflow實現

我們前面關于如何使用Tensorflow搭建卷積神經網絡的過程可以定下實現 LeNet-5 的基本思路。如果在python中寫的時候我們需要定義創建輸入輸出的占位符變量模塊、初始化各層參數模塊、創建前向傳播模塊、定義模型優化迭代模型,以及在最后設置輸入數據。

下面筆者用以上思路編寫一個 LeNet-5 的簡單實現代碼。 導入相關庫和創建輸入輸出的占位符變量:

import tensorflow as tfimport numpy as npfrom tensorflow.examples.tutorials.mnist import input_datadef create_placeholder(): X = tf.placeholder(tf.float32, shape=(None, 28 * 28)) Y = tf.placeholder(tf.float32, shape=(None, 10)) keep_prob = tf.placeholder(tf.float32) return X, Y, keep_prob

初始化各層參數:

def initialize_parameters(): W1 = tf.get_variable('W1', [5,5,1,6], initializer=tf.contrib.layers.xavier_initializer()) b1 = tf.get_variable('b1', [6], initializer=tf.zeros_initializer()) W2 = tf.get_variable('W2', [5,5,6,16], initializer=tf.contrib.layers.xavier_initializer()) b2 = tf.get_variable('b2', [16], initializer=tf.zeros_initializer()) W3 = tf.get_variable('W3', [5, 5, 16, 120], initializer=tf.contrib.layers.xavier_initializer()) b3 = tf.get_variable('b3', [120], initializer=tf.zeros_initializer()) W4 = tf.get_variable('W4', [120, 84], initializer=tf.contrib.layers.xavier_initializer()) b4 = tf.get_variable('b4', [84], initializer=tf.zeros_initializer()) W5 = tf.get_variable('W5', [84, 10], initializer=tf.contrib.layers.xavier_initializer()) b5 = tf.get_variable('b5', [10], initializer=tf.zeros_initializer()) para = {'W1': W1, 'b1': b1, 'W2': W2, 'b2': b2, 'W3': W3, 'b3': b3, 'W4': W4, 'b4': b4, 'W5': W5, 'b5': b5} return para

創建 LeNet-5 的前向計算:

def forward_propagation(X, para, dropout): X = tf.reshape(X, [-1, 28, 28, 1]) X = tf.pad(X, [[0,0],[2,2],[2,2], [0,0]]) c1 = tf.nn.conv2d(X, para['W1'], strides=[1, 1, 1, 1], padding='VALID') + para['b1'] p2 = tf.nn.max_pool(c1, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='VALID') c3 = tf.nn.conv2d(p2, para['W2'], strides=[1, 1, 1, 1], padding='VALID') + para['b2'] p4 = tf.nn.max_pool(c3, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding='VALID') c5 = tf.nn.conv2d(p4, para['W3'], strides=[1, 1, 1, 1], padding='VALID') + para['b3'] c5 = tf.contrib.layers.flatten(c5) f6 = tf.nn.tanh(tf.add(tf.matmul(c5, para['W4']), para['b4'])) f7 = tf.nn.tanh(tf.add(tf.matmul(f6, para['W5']), para['b5'])) f7 = tf.nn.dropout(f7, dropout) return f7

創建模型優化計算函數:

最后傳入 mnist 數據和相關超參數:

注:本深度學習筆記系作者學習 Andrew NG 的 deeplearningai 五門課程所記筆記,其中代碼為每門課的課后assignments作業整理而成。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4771

    瀏覽量

    100720
  • 深度學習
    +關注

    關注

    73

    文章

    5500

    瀏覽量

    121113
  • cnn
    cnn
    +關注

    關注

    3

    文章

    352

    瀏覽量

    22204

原文標題:深度學習筆記14:CNN經典論文研讀之Le-Net5及其Tensorflow實現

文章出處:【微信號:AI_shequ,微信公眾號:人工智能愛好者社區】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    深度學習與圖神經網絡學習分享:CNN經典網絡-ResNet

    深度學習與圖神經網絡學習分享:CNN 經典網絡-ResNet resnet 又叫深度殘差網絡
    的頭像 發表于 10-12 09:54 ?1026次閱讀
    深度學習與圖神經<b class='flag-5'>網絡</b>學習分享:<b class='flag-5'>CNN</b><b class='flag-5'>經典</b><b class='flag-5'>網絡</b><b class='flag-5'>之</b>-ResNet

    直流電源EMI濾波器的設計原則、網絡結構、參數選擇

    的設計原則、網絡結構、參數選擇<br/>1設計原則——滿足最大阻抗失配插入損耗要盡可能增大,即盡可能增大信號的反射。設電源的輸出阻抗和與端接的濾波器的輸人阻抗分別為ZO
    發表于 10-10 13:07

    TFCNN:Tensorflow構建卷積神經網絡CNN的嘻嘻哈哈事詳細攻略

    TFCNN:Tensorflow構建卷積神經網絡CNN的嘻嘻哈哈事詳細攻略
    發表于 12-19 17:03

    linux不同網絡結構的不同IP設法

    Linux的裝系統設IP,這應該是系統管理員的基本功,可是不同的網絡結構有不同的IP設法,您知道嗎?
    發表于 07-05 06:52

    神經網絡結構搜索有什么優勢?

    ,稍有不同就無法復現論文的結果。而網絡結構作為一種特殊的超參數,在深度學習整個環節中扮演著舉足輕重的角色。在圖像分類任務上大放異彩的ResNet、在機器翻譯任務上稱霸的Transformer等網絡結構
    發表于 09-11 11:52

    手繪網絡結構

    手繪一些網絡結構圖,很初級
    發表于 10-25 14:06

    網絡結構與IP分組交換技術

    《計算機體系結構網絡篇1、2》 網絡結構、IP分組交換技術、IP/MAC映射、NAT轉換等...
    發表于 12-23 06:05

    TD-SCDMA網絡結構

    TD-SCDMA 系統的網絡結構完全遵循3GPP 指定的UMTS 網絡結構,可以分為接入網(UTRAN)和核心網(CN)。本章首先介紹UMTS 的物理網絡結構模型,根據TD-SCDMA 系統的接入網和核心網組成闡述
    發表于 06-19 14:10 ?217次下載

    DeviceNet 網絡結構

    DeviceNet 網絡結構 基于現場總線的開放的自動化系統底層結構近年來發展起來的現場總線技術以其靈活的控制方式信息共享和低成本等特點被廣泛的用于復的
    發表于 03-22 15:46 ?30次下載

    環形網絡,環形網絡結構是什么?

    環形網絡,環形網絡結構是什么? 這種結構網絡形式主要應用于令牌網中,在這種網絡結構中各設備是直接通過電纜來串接的,最后形成一個閉環,
    發表于 03-22 11:14 ?6183次閱讀

    NLP中CNN模型常見的Pooling操作方法及其典型網絡結構

    CNN是目前自然語言處理中和RNN并駕齊驅的兩種最常見的深度學習模型。圖1展示了在NLP任務中使用CNN模型的典型網絡結構。一般而言,輸入的字或者詞用Word Embedding的方式表達,這樣
    發表于 11-15 17:59 ?1.5w次閱讀
    NLP中<b class='flag-5'>CNN</b>模型常見的Pooling操作方法及其典型<b class='flag-5'>網絡結構</b>

    【連載】深度學習筆記14:CNN經典論文研讀Le-Net5及其Tensorflow實現

    卷積神經網絡和深度學習發展歷史上具有奠基性的經典論文之一的關于 LeNet-5 網絡一文。LeNet-5 是由具有卷積神經
    的頭像 發表于 01-14 09:26 ?1785次閱讀

    卷積神經網絡結構

    卷積神經網絡結構 卷積神經網絡(Convolutional Neural Network, CNN)是一種前饋神經網絡,常用于圖像處理、自然語言處理等領域中。它是一種深度學習(Deep
    的頭像 發表于 08-17 16:30 ?1218次閱讀

    cnn卷積神經網絡簡介 cnn卷積神經網絡代碼

    以解決圖像識別問題為主要目標,但它的應用已經滲透到了各種領域,從自然語言處理、語音識別、到物體標記以及醫療影像分析等。在此,本文將對CNN的原理、結構以及基礎代碼進行講解。 1. CNN的原理
    的頭像 發表于 08-21 17:16 ?2673次閱讀

    如何優化PLC的網絡結構?

    優化PLC的網絡結構可以提高通信的效率和穩定性。以下是一些優化PLC網絡結構的方法: (1)設計合理的拓撲結構:根據應用需求和設備分布情況,設計合理的網絡拓撲
    的頭像 發表于 12-23 08:15 ?688次閱讀
    如何優化PLC的<b class='flag-5'>網絡結構</b>?
    主站蜘蛛池模板: 特大巨黑人吊性xxxxgay| 九九色精品国偷自产视频| 99er4久久视频精品首页| 亚洲欧美中文字幕5发布| 无限资源在线看影院免费观看| 欧美性猛交XXXX乱大交极品| 久久中文字幕亚洲精品最新| 久久久GOGO无码啪啪艺术| 极品少妇高潮XXXXX| 花蝴蝶在线观看免费8| 国内精品久久久久影院老司 | 日韩精品特黄毛片免费看| 女人一级毛片免费观看| 奶大B紧17p| 欧洲美女高清一级毛片| 日本不卡不码高清免费| 青青青青草| 日韩一区二区在线免费观看| 色偷偷网站| 新新电影理论中文字幕| 性欧美videos俄罗斯| 亚洲精品中文字幕在线| 亚洲日韩一区精品射精| 幼儿交1300部一区二区 | 人人啪日日观看在线| 日本女人水多| 无码丰满人妻熟妇区| 亚洲精品一区国产欧美| 御姐被吸奶| 99re久久免费热在线视频手机| 99热久久久无码国产精品性麻豆 | 最近免费中文字幕大全免费| 91天仙tv嫩模福利| pkf女尸studiosxnxx| 高清撒尿hdtube撒尿| 国产色婷婷精品人妻蜜桃成熟| 黑人操白逼| 嗯呐啊唔高H兽交| 肉多荤文高h羞耻校园| 亚洲精品乱码久久久久久v| 欲香欲色天天影视大全|