色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

dKBf_eetop_1 ? 來(lái)源:工程師曾玲 ? 2019-04-06 17:24 ? 次閱讀

一、循環(huán)神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介

循環(huán)神經(jīng)網(wǎng)絡(luò),英文全稱:Recurrent Neural Network,或簡(jiǎn)單記為RNN。需要注意的是,遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network)的簡(jiǎn)寫(xiě)也是RNN,但通常RNN指循環(huán)神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一類用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。它與其他神經(jīng)網(wǎng)絡(luò)的不同是,RNN可以更好的去處理序列的信息,即認(rèn)準(zhǔn)了前后的輸入之間存在關(guān)系。在NLP中,去理解一整句話,孤立的理解組成這句話的詞顯然是不夠的,我們需要整體的處理由這些詞連接起來(lái)的整個(gè)序列。

如:(1) 我餓了,我要去食堂___。(2) 我飯卡丟了,我要去食堂___。很顯然,第一句話是想表明去食堂就餐,而第二句則很有可能因?yàn)閯偝赃^(guò)飯,發(fā)現(xiàn)飯卡不見(jiàn)了,去食堂尋找飯卡。而在此之前,我們常用的語(yǔ)言模型是N-Gram,無(wú)論何種語(yǔ)境,可能去食堂大概率匹配的是“吃飯”而不在乎之前的信息。RNN就解決了N-Gram的缺陷,它在理論上可以往前(后)看任意多個(gè)詞。

此文是我在學(xué)習(xí)RNN中所做的筆記,參考資料在文末提及。

二、循環(huán)神經(jīng)網(wǎng)絡(luò)分類

a.簡(jiǎn)單的MLP神經(jīng)網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

簡(jiǎn)單的MLP三層網(wǎng)絡(luò)模型,x、o為向量,分別表示輸入層、輸出層的值;U、V為矩陣,U是輸入層到隱藏層的權(quán)重矩陣,V是隱藏層到輸出層的權(quán)重矩陣。

b.循環(huán)神經(jīng)網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

與簡(jiǎn)單的MLP神經(jīng)網(wǎng)絡(luò)不容的是,循環(huán)神經(jīng)網(wǎng)絡(luò)的隱藏層的值s不僅取決于當(dāng)前的這次輸入x,還取決于上一次隱藏層的值s。權(quán)重就在W就是隱藏層上一次的值作為這一次輸入的輸入的權(quán)重。將上圖展開(kāi):

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

由上圖可知以下公式,其中V是輸出層權(quán)重矩陣,g是激活函數(shù);U是輸入x的權(quán)重矩陣,W是上一次的值st-1作為這一次的輸入的權(quán)重矩陣,f是激活函數(shù)。

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

反復(fù)帶入,即可得到:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

可見(jiàn),循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出值ot受之前的輸出值xt、xt-1、xt-2所影響。

c. 雙向循環(huán)神經(jīng)網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

雙向循環(huán)神經(jīng)網(wǎng)絡(luò)的計(jì)算方法:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

從上面三個(gè)公式可以看出: 正向計(jì)算時(shí),隱藏層的值與st 和 st-1有關(guān),而反向計(jì)算時(shí),隱藏層的值與s't和s't+1有關(guān);最終的輸出取決于正向與反向計(jì)算的加和。

d、深度循環(huán)神經(jīng)網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

此前介紹的循環(huán)神經(jīng)網(wǎng)絡(luò)只有一個(gè)輸入層、一個(gè)循環(huán)層和一個(gè)輸出層。與全連接神經(jīng)網(wǎng)絡(luò)以及卷積神經(jīng)網(wǎng)絡(luò)一樣,可以把它推廣到任意多個(gè)隱藏層的情況,得到深層循環(huán)神經(jīng)網(wǎng)絡(luò)。深度循環(huán)神經(jīng)網(wǎng)絡(luò)包含多個(gè)隱藏層(上圖為了表示清楚,只列舉了2層),并且也繼承了雙向循環(huán)神經(jīng)網(wǎng)絡(luò)的特點(diǎn)。由之前的公式類推,我們可以得到深度循環(huán)神經(jīng)網(wǎng)絡(luò)的計(jì)算方式:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN學(xué)習(xí)筆記

深層神經(jīng)網(wǎng)絡(luò)有3個(gè)方案:第一種叫做 Deep Input-to-Hidden Function,它在循環(huán)層之前加入多個(gè)普通的全連接層,將輸入向量進(jìn)行多層映射之后再送入循環(huán)層進(jìn)行處理。第二種方案是 Deep Hidden-to-Hidden Transition,它使用多個(gè)循環(huán)層,這和前饋神經(jīng)網(wǎng)絡(luò)類似,唯一不同的是計(jì)算隱含層輸出的時(shí)候需要利用本隱含層上一時(shí)刻的值。第三種方案是 Deep Hidden-to-Output Function,它在循環(huán)層到輸出層之間加入多個(gè)全連接層,這與第一種情況類似。上面公式展示的應(yīng)為第二種情況。

由于循環(huán)層一般用 tanh 作為激活函數(shù),層次過(guò)多之后會(huì)導(dǎo)致梯度消失問(wèn)題。后面會(huì)提及。

三、網(wǎng)絡(luò)的訓(xùn)練及BPTT

循環(huán)神經(jīng)網(wǎng)絡(luò)的輸入是序列數(shù)據(jù),每個(gè)訓(xùn)練樣本是一個(gè)時(shí)間序列,包含多個(gè)相同維度的向量。網(wǎng)絡(luò)的參數(shù)如何通過(guò)訓(xùn)練確定?這里就要使用解決循環(huán)神經(jīng)網(wǎng)絡(luò)訓(xùn)練問(wèn)題的 Back Propagation Through Time 算法,簡(jiǎn)稱BPTT。

循環(huán)神經(jīng)網(wǎng)絡(luò)的每個(gè)訓(xùn)練樣本是一個(gè)時(shí)間序列,同一個(gè)訓(xùn)練樣本前后時(shí)刻的輸入值之間有關(guān)聯(lián),每個(gè)樣本的序列長(zhǎng)度可能不相同。訓(xùn)練時(shí)先對(duì)這個(gè)序列中的每個(gè)時(shí)刻的輸入值進(jìn)行正向傳播,再通過(guò)反向傳播計(jì)算出參數(shù)的梯度值并更新參數(shù)。

它包含三個(gè)步驟:(1)正向計(jì)算每個(gè)神經(jīng)元的輸出值;(2)反向計(jì)算每個(gè)神經(jīng)元的誤差項(xiàng)δj,它是誤差函數(shù)E對(duì)神經(jīng)元 j 的加權(quán)輸入netj的偏導(dǎo)數(shù);(3)計(jì)算每個(gè)權(quán)重的梯度;(4)用隨機(jī)梯度下降算法更新權(quán)重。具體的算法推導(dǎo)我會(huì)在之后的筆記整理中總結(jié)。

四、梯度爆炸、梯度消失

循環(huán)神經(jīng)網(wǎng)絡(luò)在進(jìn)行反向傳播時(shí)也面臨梯度消失或者梯度爆炸問(wèn)題,這種問(wèn)題表現(xiàn)在時(shí)間軸上。如果輸入序列的長(zhǎng)度很長(zhǎng),人們很難進(jìn)行有效的參數(shù)更新。通常來(lái)說(shuō)梯度爆炸更容易處理一些。因?yàn)樘荻缺〞r(shí),我們的程序會(huì)收到NaN的錯(cuò)誤。我們也可以設(shè)置一個(gè)梯度閾值,當(dāng)梯度超過(guò)這個(gè)閾值的時(shí)候可以直接截取。

梯度消失更難檢測(cè),而且也更難處理一些。總的來(lái)說(shuō),我們有三種方法應(yīng)對(duì)梯度消失問(wèn)題:

(1)合理的初始化權(quán)重值。初始化權(quán)重,使每個(gè)神經(jīng)元盡可能不要取極大或極小值,以多開(kāi)梯度消失的區(qū)域。

(2) 使用 ReLu 代替 sigmoid 和 tanh 作為激活函數(shù)。

(3) 使用其他結(jié)構(gòu)的RNNs,比如長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LTSM)和 門(mén)控循環(huán)單元 (GRU),這是最流行的做法。

五、練手項(xiàng)目

可以參考github上比較出名的char_RNN的代碼來(lái)提高自己的興趣。該項(xiàng)目就是通過(guò)訓(xùn)練語(yǔ)料來(lái)自己寫(xiě)詩(shī)、歌、文。

下圖是我的訓(xùn)練結(jié)果:

(1) 一首詩(shī),這首通過(guò)RNN訓(xùn)練寫(xiě)出的詩(shī)還是不錯(cuò)的。“秋”與“春”是對(duì)應(yīng)的,描繪的是詩(shī)人在秋日,欣賞的山中風(fēng)景。不禁感嘆,自己的青春已去,自己也已經(jīng)白首,吟唱著這首詩(shī)(編不下去了…)。

(2) 通過(guò)自己找的《三體》全集,來(lái)訓(xùn)練出的小說(shuō)片段。可以看到,只能模仿句式,不能有準(zhǔn)確表達(dá),所以邏輯不通的,但是形式是很像劉慈欣的寫(xiě)法了。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:中國(guó)成功研制出世界首個(gè)多自由度固態(tài)量子存儲(chǔ)器

文章出處:【微信號(hào):eetop-1,微信公眾號(hào):EETOP】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    什么是RNN循環(huán)神經(jīng)網(wǎng)絡(luò))?

    循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN) 是一種深度學(xué)習(xí)結(jié)構(gòu),它使用過(guò)去的信息來(lái)提高網(wǎng)絡(luò)處理當(dāng)前和將來(lái)輸入的性能。RNN
    發(fā)表于 02-29 14:56 ?4070次閱讀
    什么是<b class='flag-5'>RNN</b> (<b class='flag-5'>循環(huán)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>)?

    循環(huán)神經(jīng)網(wǎng)絡(luò)RNN)的詳細(xì)介紹

    循環(huán)神經(jīng)網(wǎng)絡(luò)可以用于文本生成、機(jī)器翻譯還有看圖描述等,在這些場(chǎng)景中很多都出現(xiàn)了RNN的身影。
    的頭像 發(fā)表于 05-11 14:58 ?1.4w次閱讀
    <b class='flag-5'>循環(huán)</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(<b class='flag-5'>RNN</b>)的詳細(xì)介紹

    循環(huán)神經(jīng)網(wǎng)絡(luò)RNN)和(LSTM)初學(xué)者指南

    最近,有一篇入門(mén)文章引發(fā)了不少關(guān)注。文章中詳細(xì)介紹了循環(huán)神經(jīng)網(wǎng)絡(luò)RNN),及其變體長(zhǎng)短期記憶(LSTM)背后的原理。
    發(fā)表于 02-05 13:43 ?950次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,
    的頭像 發(fā)表于 07-03 16:12 ?3385次閱讀

    什么是RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))?RNN的基本原理和優(yōu)缺點(diǎn)

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種專門(mén)用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它能夠在序列的演進(jìn)方向上進(jìn)行遞歸,并通過(guò)所有節(jié)點(diǎn)(
    的頭像 發(fā)表于 07-04 11:48 ?3743次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)和遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network,簡(jiǎn)稱RvNN)是深度
    的頭像 發(fā)表于 07-04 14:19 ?938次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度
    的頭像 發(fā)表于 07-04 14:24 ?1320次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)算法原理及特點(diǎn)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)是一種具有記憶功能的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù)。與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:49 ?708次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱R
    的頭像 發(fā)表于 07-04 14:54 ?793次閱讀

    RNN神經(jīng)網(wǎng)絡(luò)適用于什么

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它可以處理序列數(shù)據(jù),具有記憶功能。
    的頭像 發(fā)表于 07-04 15:04 ?1013次閱讀

    rnn神經(jīng)網(wǎng)絡(luò)模型原理

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),具有記憶功能。
    的頭像 發(fā)表于 07-04 15:40 ?612次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)連接的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),并且具有記憶能力。
    的頭像 發(fā)表于 07-05 09:49 ?698次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)模型

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,它能夠處理序列數(shù)據(jù),并對(duì)序列中的元
    的頭像 發(fā)表于 07-05 09:50 ?623次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-05 09:52 ?587次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長(zhǎng)序列時(shí)存在梯度消失或梯度爆炸的問(wèn)題。為了解
    的頭像 發(fā)表于 11-13 09:58 ?353次閱讀
    主站蜘蛛池模板: 久久综合电影| 国产午夜伦伦伦午夜伦| 国产 亚洲 中文在线 字幕| 久久精品国产亚洲AV天美18 | 尿了么app| 中国毛片网| 久久久97人妻无码精品蜜桃| 亚洲乱码国产乱码精品精98| 国产人妻久久久精品麻豆| 视频网站入口在线看| 儿子日母亲B好爽| 射90黑b丝女| 国产成人啪精品视频免费网| 色狐直播免费观看| 国产成人永久免费视频| 脱女学小内内摸出水网站免费| 粉嫩无套白浆第一次jk| 色呦呦人人视频| 国产露脸无码A区久久蘑菇| 迅雷哥在线观看高清| 国语92电影网午夜福利| 影音先锋亚洲AV少妇熟女| 葵司中文第一次大战黑人| 99re这里只有精品国产| 拍戏被CAO翻了H| 成人亚洲视频在线观看| 帅小伙和警官同性3p| 国产偷国产偷亚州清高| 亚洲欧美韩国综合色| 精品无码久久久久久国产百度| 又粗又大又爽又黄的免费视频| 久久一本岛在免费线观看2020| 69成人免费视频| 日本理论片午午伦夜理片2021| 国产传媒18精品免费观看| 亚洲国产中文在线视频免费| 久久毛片免费看一区二区三区| 99热6精品视频6| 少妇无码太爽了视频在线播放| 好紧小嫩嫩水的10p| 97人人添人人澡人人澡人人澡|