色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何區分卷積網絡與全連接網絡

jf_78858299 ? 來源:算法與編程之美 ? 作者: 編程之美 ? 2023-02-21 15:05 ? 次閱讀

問題
卷積神經網絡是一類包含卷積計算且具有深度結構的前饋神經網絡,是深度學習。卷積神經網絡具有表征學習能力,能夠按其階層結構對輸入信息進行平移不變分類,因此也被稱為“平移不變人工神經網絡。
全連接神經網絡是具有多層感知器的的網絡,也就是多層神經元的網絡。層與層之間需要包括一個非線性激活函數,需要有一個對輸入和輸出都隱藏的層,還需要保持高度的連通性,由網絡的突觸權重決定。那兩者的區別是什么呢?

方法
卷積神經網絡也是通過一層一層的節點組織起來的。和全連接神經網絡一樣,卷積神經網絡中的每一個節點就是一個神經元。在全連接神經網絡中,每相鄰兩層之間的節點都有邊相連,于是會將每一層的全連接層中的節點組織成一列,這樣方便顯示連接結構。而對于卷積神經網絡,相鄰兩層之間只有部分節點相連,為了展示每一層神經元的維度,一般會將每一層卷積層的節點組織成一個三維矩陣。
除了結構相似,卷積神經網絡的輸入輸出以及訓練的流程和全連接神經網絡也基本一致,以圖像分類為列,卷積神經網絡的輸入層就是圖像的原始圖像,而輸出層中的每一個節點代表了不同類別的可信度。這和全連接神經網絡的輸入輸出是一致的。類似的,全連接神經網絡的損失函數以及參數的優化過程也都適用于卷積神經網絡。因此,全連接神經網絡和卷積神經網絡的唯一區別就是神經網絡相鄰兩層的連接方式。
但是全神經網絡無法很好地處理好圖像數據,然而卷積神經網絡卻很好地客服了這個缺點,使用全連接神經網絡處理圖像的最大問題就是:全連接層的參數太多,對于MNIST數據,每一張圖片的大小是28*28*1,其中28*28代表的是圖片的大小,*1表示圖像是黑白的,有一個色彩通道。假設第一層隱藏層的節點數為500個,那么一個全連接層的神經網絡有28*28*500+500=392500個參數,而且有的圖片會更大或者是彩色的圖片,這時候參數將會更多。參數增多除了導致計算速度減慢,還很容易導致過擬合的問題。所以需要一個合理的神經網絡結構來有效的減少神經網絡中參數的個數。卷積神經網絡就可以更好的達到這個目的。

from keras import layers
from keras import models
from keras.datasets import mnist
from keras.utils import to_categorical
(train_images, train_labels), (test_images, test_labels) = mnist.load_data('D:/Python36/Coding/PycharmProjects/ttt/mnist.npz')
train_images = train_images.reshape(60000, 28*28)
train_images = train_images.astype('float32') / 255
test_images = test_images.reshape(10000, 28*28)
test_images = test_images.astype('float32') / 255
train_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)
model = models.Sequential()
model.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,)))
model.add(layers.Dense(10, activation='softmax'))
model.compile(optimizer='rmsprop',loss='categorical_crossentropy',metrics=['accuracy'])
history=model.fit(train_images, train_labels, epochs=10, batch_size=128)
test_loss, test_acc = model.evaluate(test_images, test_labels)
print(test_acc,test_acc)
#0.9786 0.9786
print("history_dict%s =" %history.history)
#history_dict = {'loss': [0.25715254720052083, 0.1041663886765639, 0.06873120647072792, 0.049757948418458306, 0.037821156319851675, 0.02870141142855088, 0.02186925242592891, 0.01737390520994862, 0.01316443470219771, 0.010196967865650853],
# 'acc': [0.9253666666984558, 0.9694833333333334, 0.9794666666348775, 0.9850166666984558, 0.9886666666666667, 0.9917666666666667, 0.9935499999682108, 0.9949499999682109, 0.9960999999682109, 0.9972833333333333]} =
acc1 = history.history['acc']
loss1 = history.history['loss']
print(model.summary())
(train_images, train_labels), (test_images, test_labels) = mnist.load_data('D:/Python36/Coding/PycharmProjects/ttt/mnist.npz')
train_images = train_images.reshape((60000, 28, 28, 1))
train_images = train_images.astype('float32') / 255
test_images = test_images.reshape((10000, 28, 28, 1))
test_images = test_images.astype('float32') / 255
train_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)
model = models.Sequential()
model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1)))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.Flatten())
model.add(layers.Dense(64, activation='relu'))
model.add(layers.Dense(10, activation='softmax'))
model.compile(optimizer='rmsprop',loss='categorical_crossentropy',metrics=['accuracy'])
history = model.fit(train_images, train_labels, epochs=10, batch_size=64)
test_loss, test_acc = model.evaluate(test_images, test_labels)
##0.9919 0.9919
print("history_dict =%s" %history.history)
#history_dict = {'loss': [0.1729982195024689, 0.04632370648694535, 0.031306330454613396, 0.02327785180026355, 0.01820601755216679, 0.01537780981725761, 0.011968255878429288, 0.010757189085084126, 0.008755202058390447, 0.007045005079609898],
# 'acc': [0.9456333333333333, 0.9859, 0.9903333333333333, 0.9929333333333333, 0.99435, 0.9953333333333333, 0.9962333333333333, 0.9966, 0.99735, 0.9979333333333333]}
acc2 = history.history['acc']
loss2 = history.history['loss']
print(model.summary())
import matplotlib.pyplot as plt
fig=plt.figure()
ax=fig.add_subplot(1,1,1)
epochs = range(1, len(acc1) + 1)
ax.plot(epochs, acc1, 'bo', label='dense Training acc',color='red')
ax.plot(epochs, loss1, 'b', label='dense Training loss',color='red')
ax.plot(epochs, acc2, 'bo', label='Conv2D Training acc',color='green')
ax.plot(epochs, loss2, 'b', label='Conv2D Training loss',color='green')
ax.legend(loc='best')
ax.set_title('Training and validation accuracy by different model')
ax.set_xlabel('Epochs')
ax.set_ylabel('Accuracy')
plt.show()

pYYBAGP0bQOANu_QAAE831rxP04796.png


結語

全連接網絡沒有卷積層,只使用全連接層(以及非線性層)。

以關鍵是理解卷積層和全連接層的區別。

全連接層有三個特點:

關注全局信息(每個點都和前后層的所有點鏈接)

參數量巨大,計算耗時

輸入維度需要匹配(因為是矩陣運算,維度不一致無法計算)

卷積層

這個卷積和信號系統中的卷積不太一樣,其實就是一個簡單的乘加運算,

局部鏈接:當前層的神經元只和下一層神經元的局部鏈接(并不是全連接層的全局鏈接)

權重共享:神經元的參數(如上圖的3*3卷積核),在整個特征圖上都是共享的,而不是每個滑動窗口都不同

也正是因為這兩個特性,所以卷積層相比于全連接層有如下優點:

需要學習的參數更少,從而降低了過度擬合的可能性,因為該模型不如完全連接的網絡復雜。

只需要考慮中的上下文/共享信息。這個未來在許多應用中非常重要,例如圖像、視頻、文本和語音處理/挖掘,因為相鄰輸入(例如像素、幀、單詞等)通常攜帶相關信息。

但需要注意的是,無論是全連接層,還是卷積層,都是線性層,只能擬合線性函數,所以都需要通過ReLU等引入非線性,以增加模型的表達能力。比如ReLU函數接受一個輸入x,并返回{0, x}的最大值。ReLU(x) = argmax(x, 0)。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4771

    瀏覽量

    100719
  • 深度學習
    +關注

    關注

    73

    文章

    5500

    瀏覽量

    121113
  • 卷積神經網絡

    關注

    4

    文章

    367

    瀏覽量

    11863
收藏 人收藏

    評論

    相關推薦

    連接神經網絡卷積神經網絡有什么區別

    連接神經網絡卷積神經網絡的區別
    發表于 06-06 14:21

    卷積網絡FCN進行圖像分割

    與 FCN 通常CNN網絡卷積層之后會接上若干個連接層, 將卷積層產生的特征圖(feature map)映射成一個固定長度的特征向量。
    發表于 09-26 17:22 ?624次閱讀

    卷積神經網絡連接層作用理解總結

    一般來說,卷積神經網絡會有三種類型的隱藏層——卷積層、池化層、連接層。卷積層和池化層比較好理解
    的頭像 發表于 01-30 17:23 ?2w次閱讀

    卷積網絡連接網絡的比較

    我們在深度學習的過程中,開始對模型進行在測試集的精度進行預測時,最開始是連接網絡進行模型的精度預測,最后發現測試集的精度預測值不是很理想,就在想能不能換一種網絡層提高測試集的精度?
    的頭像 發表于 03-24 14:49 ?1211次閱讀
    <b class='flag-5'>卷積</b><b class='flag-5'>網絡</b>和<b class='flag-5'>全</b><b class='flag-5'>連接</b><b class='flag-5'>網絡</b>的比較

    PyTorch教程14.11之卷積網絡

    電子發燒友網站提供《PyTorch教程14.11之卷積網絡.pdf》資料免費下載
    發表于 06-05 11:19 ?0次下載
    PyTorch教程14.11之<b class='flag-5'>全</b><b class='flag-5'>卷積</b><b class='flag-5'>網絡</b>

    卷積神經網絡如何識別圖像

    多層卷積層、池化層和連接層。CNN模型通過訓練識別并學習高度復雜的圖像模式,對于識別物體和進行圖像分類等任務有著非常優越的表現。本文將會詳細介紹卷積神經
    的頭像 發表于 08-21 16:49 ?1926次閱讀

    卷積神經網絡的基本原理 卷積神經網絡發展 卷積神經網絡三大特點

    中最重要的神經網絡之一。它是一種由多個卷積層和池化層(也可稱為下采樣層)組成的神經網絡。CNN 的基本思想是以圖像為輸入,通過網絡卷積、下
    的頭像 發表于 08-21 16:49 ?2418次閱讀

    卷積神經網絡基本結構 卷積神經網絡主要包括什么

    。它的基本結構由卷積層、池化層和連接層三部分組成,其中卷積層是核心部分,用于提取圖像的特征,池化層用于降低特征圖的大小,
    的頭像 發表于 08-21 16:57 ?8825次閱讀

    卷積神經網絡層級結構 卷積神經網絡卷積層講解

    像分類、目標檢測、人臉識別等。卷積神經網絡的核心是卷積層和池化層,它們構成了網絡的主干,實現了對圖像特征的提取和抽象。 一、卷積神經
    的頭像 發表于 08-21 16:49 ?7586次閱讀

    卷積神經網絡的介紹 什么是卷積神經網絡算法

    的深度學習算法。CNN模型最早被提出是為了處理圖像,其模型結構中包含卷積層、池化層和連接層等關鍵技術,經過多個卷積層和池化層的處理,CNN可以提取出圖像中的特征信息,從而對圖像進行分
    的頭像 發表于 08-21 16:49 ?1867次閱讀

    卷積神經網絡算法代碼matlab

    )、池化層(Pooling Layer)和連接層(Fully Connected Layer)。卷積神經網絡源自對腦神經細胞的研究,能夠有效地處理大規模的視覺和語音數據。本文將詳細介
    的頭像 發表于 08-21 16:50 ?1204次閱讀

    常見的卷積神經網絡模型 典型的卷積神經網絡模型

    LeNet是卷積神經網絡的開山祖師,是由Yan LeCunn在1998年提出的經典卷積神經網絡模型。它最初是為手寫體數字識別而設計的,由卷積
    的頭像 發表于 08-21 17:11 ?2838次閱讀

    卷積神經網絡模型的優缺點

    等領域中非常流行,可用于分類、分割、檢測等任務。而在實際應用中,卷積神經網絡模型有其優點和缺點。這篇文章將詳細介紹卷積神經網絡模型的特點、優點和缺點。 一、
    的頭像 發表于 08-21 17:15 ?4420次閱讀

    卷積神經網絡的工作原理和應用

    卷積神經網絡(FCN)是深度學習領域中的一種特殊類型的神經網絡結構,尤其在計算機視覺領域表現出色。它通過全局平均池化或轉置卷積處理任意尺寸
    的頭像 發表于 07-11 11:50 ?1101次閱讀

    神經網絡中的卷積層、池化層與連接

    在深度學習中,卷積神經網絡(Convolutional Neural Network, CNN)是一種特別適用于處理圖像數據的神經網絡結構。它通過卷積層、池化層和
    的頭像 發表于 07-11 14:18 ?5453次閱讀
    主站蜘蛛池模板: 大胆国模一区二区三区伊人| 久久伊人在| 欧美亚洲曰韩一本道| 亚洲精品午夜aaa级久久久久| YELLOW高清在线观看2019| 精品久久免费观看| 涩涩电影网| 99热久久精品国产一区二区| 狠狠色香婷婷久久亚洲精品| 色综合a在线| gogo亚洲肉体艺术照片9090| 久久精品一区二区免费看| 小小水蜜桃视频高清在线播放| chinesedaddy80老年人| 久久免费国产| 亚洲人成网站在线播放| 国产GV无码A片在线观看 | 久久AV国产麻豆HD真实乱| 我的年轻漂亮继坶三级| 不良网站进入窗口软件下载免费| 老司机午夜影院试看区| 亚洲色偷偷偷网站色偷一区人人藻| 国产高清国内精品福利色噜噜| 全部免费特黄特色大片看片| 69日本人XXXX护士HD| 久久精品无码成人国产毛| 亚洲精品国产A久久久久久| 国产精品婷婷五月久久久久| 日本理论片和搜子同居的日子2| 97成人免费视频| 久久成人亚洲| 亚洲午夜久久久久中文字幕 | 久久大胆视频| 亚洲一区高清| 精品高清国产a毛片| 亚洲精品伊人久久久久| 国产性夜夜性夜夜爽91| 校园男男高h小黄文| 国产人成无码视频在线观看| 污文乖不疼的| 国产精品久久久久久久AV下载|