色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工神經(jīng)網(wǎng)絡(luò)(梯度下降算法)介紹

RG15206629988 ? 來(lái)源:行業(yè)學(xué)習(xí)與研究 ? 2023-07-28 16:10 ? 次閱讀

在實(shí)際問(wèn)題中,已知量是數(shù)據(jù)和數(shù)據(jù)標(biāo)簽,決策函數(shù)是未知的,即神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)未知。

因此,在使用人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)解決實(shí)際問(wèn)題時(shí),需先假設(shè)人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),再將訓(xùn)練數(shù)據(jù)輸入到該結(jié)構(gòu)中 ,最后求解待求參數(shù)

一、假設(shè)人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

假設(shè)人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)主要需要確定兩個(gè)問(wèn)題:

(1)人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)共有多少層?

(2)每層神經(jīng)元的數(shù)量是多少?

目前,上述兩個(gè)問(wèn)題沒(méi)有標(biāo)準(zhǔn)答案,開(kāi)發(fā)人員需根據(jù)經(jīng)驗(yàn)解決上述兩個(gè)問(wèn)題。解決上述兩個(gè)問(wèn)題時(shí),開(kāi)發(fā)人員可根據(jù)以下準(zhǔn)則:

(1)若問(wèn)題是簡(jiǎn)單的,兩個(gè)類別的分界曲線是不復(fù)雜的,則可選用較簡(jiǎn)單的人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),即人工神經(jīng)網(wǎng)絡(luò)層數(shù)和每層神經(jīng)數(shù)量均可較少。

849f2360-2d1d-11ee-815d-dac502259ad0.png

圖片來(lái)源:中國(guó)慕課大學(xué)《機(jī)器學(xué)習(xí)概論》

(2)若問(wèn)題是復(fù)雜的,例如:人臉識(shí)別問(wèn)題,則可選用較復(fù)雜的人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),即人工神經(jīng)網(wǎng)絡(luò)層數(shù)和每層神經(jīng)數(shù)量均可較多。

(3)若訓(xùn)練數(shù)據(jù)較少,則可選用較簡(jiǎn)單的人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

(4)若訓(xùn)練數(shù)據(jù)較多,則可選用較復(fù)雜的人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

二、求解人工神經(jīng)網(wǎng)絡(luò)待求參數(shù)

以兩層神經(jīng)網(wǎng)絡(luò)模型為例,如圖一所示,輸入為(X,Y),其中,X=[x1,x2]T,Y是標(biāo)簽值(label),問(wèn)題為通過(guò)改變?chǔ)睾蚥的值,使得標(biāo)簽值Y與實(shí)際的人工神經(jīng)網(wǎng)絡(luò)輸出值y最接近。

8532050e-2d1d-11ee-815d-dac502259ad0.png

圖一,圖片來(lái)源:中國(guó)慕課大學(xué)《機(jī)器學(xué)習(xí)概論》

根據(jù)前篇文章,y的表達(dá)式為: y=ω1φ(ω11x1+ω12x2+b1)+ω2φ(ω21x1+ω22x2+b1)+b3

使得y和Y最接近可表達(dá)為: Minimize:E(ω,b)=E(X,Y)[(Y-y)2]

其中,E(X,Y)為訓(xùn)練樣本和標(biāo)簽的數(shù)學(xué)期望(平均值)。因?yàn)閥是(ω,b)的非凸函數(shù),所以該問(wèn)題無(wú)法求得唯一最小值。

因此,采用梯度下降法(Gradient Descent Method)求解局部極小值。梯度下降法的步驟如下:

(1)隨機(jī)選取ω和b的初始值(ω(0),b(0))

(2)應(yīng)用迭代算法求目標(biāo)函數(shù)的局部極值,在第n步迭代中,ω和b的迭代公式為: ω(n+1)=ω(n)-α·?E/?ω b(n+1)=b(n)-α·?E/?b

其中,α為學(xué)習(xí)率(Learning rate),α由開(kāi)發(fā)人員設(shè)定,開(kāi)發(fā)人員需選取合適的α值,若α值被設(shè)定得過(guò)大,則容易錯(cuò)過(guò)局部極值點(diǎn),若α值被設(shè)定得過(guò)小,則可能較長(zhǎng)時(shí)間不能找到局部極值點(diǎn),只有當(dāng)α值被設(shè)定得合適時(shí),才能快速收斂至局部極值點(diǎn)。但因?yàn)槿斯ど窠?jīng)網(wǎng)絡(luò)對(duì)應(yīng)的決策函數(shù)未知,所以沒(méi)有一種可求解α值的方法,開(kāi)發(fā)人員需根據(jù)經(jīng)驗(yàn)設(shè)定α值。

85675df8-2d1d-11ee-815d-dac502259ad0.png

圖片來(lái)源:中國(guó)慕課大學(xué)《機(jī)器學(xué)習(xí)概論》

梯度下降法的含義:如圖二所示,通過(guò)迭代的方式逐步遍歷x1,x2,x3,…,xn,最終找到函數(shù)的局部極小值,此值即為y和Y最接近的值。

85858c38-2d1d-11ee-815d-dac502259ad0.png

圖片來(lái)源:中國(guó)慕課大學(xué)《機(jī)器學(xué)習(xí)概論》





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:機(jī)器學(xué)習(xí)相關(guān)介紹(27)——人工神經(jīng)網(wǎng)絡(luò)(梯度下降算法)

文章出處:【微信號(hào):行業(yè)學(xué)習(xí)與研究,微信公眾號(hào):行業(yè)學(xué)習(xí)與研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    人工神經(jīng)網(wǎng)絡(luò)原理及下載

    人工神經(jīng)網(wǎng)絡(luò)是根據(jù)人的認(rèn)識(shí)過(guò)程而開(kāi)發(fā)出的一種算法。假如我們現(xiàn)在只有一些輸入和相應(yīng)的輸出,而對(duì)如何由輸入得到輸出的機(jī)理并不清楚,那么我們可以把輸入與輸出之間的未知過(guò)程看成是一個(gè)“網(wǎng)絡(luò)”,
    發(fā)表于 06-19 14:40

    MATLAB神經(jīng)網(wǎng)絡(luò)工具箱函數(shù)

    MATLAB神經(jīng)網(wǎng)絡(luò)工具箱函數(shù)說(shuō)明:本文檔中所列出的函數(shù)適用于MATLAB5.3以上版本,為了簡(jiǎn)明起見(jiàn),只列出了函數(shù)名,若需要進(jìn)一步的說(shuō)明,請(qǐng)參閱MATLAB的幫助文檔。1. 網(wǎng)絡(luò)創(chuàng)建函數(shù)newp
    發(fā)表于 09-22 16:10

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章
    發(fā)表于 03-20 11:32

    人工神經(jīng)網(wǎng)絡(luò)課件

    人工神經(jīng)網(wǎng)絡(luò)課件
    發(fā)表于 06-19 10:15

    【專輯精選】人工智能之神經(jīng)網(wǎng)絡(luò)教程與資料

    電子發(fā)燒友總結(jié)了以“神經(jīng)網(wǎng)絡(luò)”為主題的精選干貨,今后每天一個(gè)主題為一期,希望對(duì)各位有所幫助!(點(diǎn)擊標(biāo)題即可進(jìn)入頁(yè)面下載相關(guān)資料)人工神經(jīng)網(wǎng)絡(luò)算法的學(xué)習(xí)方法與應(yīng)用實(shí)例(pdf彩版)卷積
    發(fā)表于 05-07 19:18

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡(luò)

    傳播的,不會(huì)回流),區(qū)別于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN。BP算法(Back Propagation):誤差反向傳播算法,用于更新網(wǎng)絡(luò)中的權(quán)重。BP神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 07-21 04:00

    人工神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)方法有哪些?

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)是一種類似生物神經(jīng)網(wǎng)絡(luò)的信息處理結(jié)構(gòu),它的提出是為了解決一些非線性,非平穩(wěn),復(fù)雜的實(shí)際問(wèn)題。那有哪些辦法能實(shí)現(xiàn)人工
    發(fā)表于 08-01 08:06

    【AI學(xué)習(xí)】第3篇--人工神經(jīng)網(wǎng)絡(luò)

    `本篇主要介紹人工神經(jīng)網(wǎng)絡(luò)的起源、簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)模型、更多神經(jīng)網(wǎng)絡(luò)模型、機(jī)器學(xué)習(xí)的步驟:訓(xùn)練與預(yù)測(cè)、訓(xùn)練的兩階段:正向推演與反向傳播、以Te
    發(fā)表于 11-05 17:48

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    5]、自然語(yǔ)言處理[6- 7]等領(lǐng)域已被廣泛 應(yīng)用。在卷積神經(jīng)網(wǎng)絡(luò)興起之前,主要依靠人工針對(duì)特定的問(wèn)題設(shè)計(jì)算法,比如采用 Sobel、LoG(Laplacian of Gaussian)、Canny
    發(fā)表于 08-02 10:39

    長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)算法

    通過(guò)上一篇文章[人工智能之循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)] 介紹,我們知道,RNN是一類功能強(qiáng)大的人工神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 06-29 14:44 ?4752次閱讀

    深度神經(jīng)網(wǎng)絡(luò)的困擾 梯度爆炸與梯度消失

    ,LSTM)正是為了解決梯度消失問(wèn)題而設(shè)計(jì)的一種特殊的RNN結(jié)構(gòu)。 深度神經(jīng)網(wǎng)絡(luò)的困擾:梯度爆炸與梯度消失 在此前的普通深度神經(jīng)網(wǎng)絡(luò)和深度卷
    的頭像 發(fā)表于 08-23 09:12 ?4574次閱讀
    深度<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的困擾 <b class='flag-5'>梯度</b>爆炸與<b class='flag-5'>梯度</b>消失

    詳解神經(jīng)網(wǎng)絡(luò)中反向傳播和梯度下降

    摘要:反向傳播指的是計(jì)算神經(jīng)網(wǎng)絡(luò)參數(shù)梯度的方法。
    的頭像 發(fā)表于 03-14 11:07 ?1043次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法

    卷積神經(jīng)網(wǎng)絡(luò)介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法 卷積神經(jīng)網(wǎng)絡(luò)涉及的關(guān)鍵技術(shù) 卷積神經(jīng)網(wǎng)絡(luò)(Convo
    的頭像 發(fā)表于 08-21 16:49 ?1891次閱讀

    神經(jīng)網(wǎng)絡(luò)反向傳播算法的原理、數(shù)學(xué)推導(dǎo)及實(shí)現(xiàn)步驟

    神經(jīng)網(wǎng)絡(luò)反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)算法,其基本原理是通過(guò)梯度
    的頭像 發(fā)表于 07-03 11:16 ?811次閱讀

    神經(jīng)網(wǎng)絡(luò)反向傳播算法的優(yōu)缺點(diǎn)有哪些

    是一種模擬人腦神經(jīng)元網(wǎng)絡(luò)的計(jì)算模型,具有強(qiáng)大的非線性映射能力和泛化能力。反向傳播算法是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的核心算法,通過(guò)梯度
    的頭像 發(fā)表于 07-03 11:24 ?1039次閱讀
    主站蜘蛛池模板: 一区二区三区高清视频| 久久久中日AB精品综合| 亚洲AVAV天堂AV在线网爱情| 亚洲中文久久久久久国产精品 | 国产午夜亚洲精品不卡电影| qvod播放电影| 中文字幕亚洲男人的天堂网络| 午夜久久影院| 国产色婷婷亚洲99麻豆| bbwxxxx交女警| 色综合欧美色综合七久久| 美国VICTORY DAY在线| 好大好硬好湿再深一点网站| 国产 交换 丝雨 巅峰| av天堂网2014在线| 最近中文字幕免费高清MV视频| 亚洲 欧美 中文字幕 在线| 拔萝卜视频免费看高清| 亚洲免费网站观看视频| 涩涩电影网| 日本邪恶少女漫画大全| 女教师苍井空体肉女教师S242| 久久精品动漫99精品动漫| 国产亚洲精品久久精品69| 德国美女密密麻麻浓毛| XXX老姥群交| a一级一片免费观看视频| 中文字幕AV在线一二三区| 亚洲中文字幕在线精品| 亚洲合集综合久久性色| 先锋影音av资源站av| 偷拍亚洲色自拍| 日日碰狠狠躁久久躁77777| 秋霞伦理手机在线看片| 欧美日韩在线成人看片a| 牛牛免费视频| 欧美最猛黑人XXXXWWW| 青青青伊人| 日本aaaa| 日日碰狠狠躁久久躁综合网| 日日啪无需播放器|