色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

RNN以及LSTM

新機(jī)器視覺(jué) ? 來(lái)源:機(jī)器學(xué)習(xí)算法那些事 ? 作者:機(jī)器學(xué)習(xí)算法那些 ? 2022-03-15 10:44 ? 次閱讀

熟悉深度學(xué)習(xí)的朋友知道,LSTM是一種RNN模型,可以方便地處理時(shí)間序列數(shù)據(jù),在NLP等領(lǐng)域有廣泛應(yīng)用。

在看了臺(tái)大李宏毅教授的深度學(xué)習(xí)視頻后,特別是介紹的第一部分RNN以及LSTM,整個(gè)人醍醐灌頂。

0. 從RNN說(shuō)起

循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是一種用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。相比一般的神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō),他能夠處理序列變化的數(shù)據(jù)。比如某個(gè)單詞的意思會(huì)因?yàn)樯衔奶岬降膬?nèi)容不同而有不同的含義,RNN就能夠很好地解決這類問(wèn)題。

1. 普通RNN

先簡(jiǎn)單介紹一下一般的RNN。其主要形式如下圖所示(圖片均來(lái)自臺(tái)大李宏毅教授的PPT):

ba5cb7b8-a355-11ec-952b-dac502259ad0.png

這里:

為當(dāng)前狀態(tài)下數(shù)據(jù)的輸入,表示接收到的上一個(gè)節(jié)點(diǎn)的輸入。

為當(dāng)前節(jié)點(diǎn)狀態(tài)下的輸出,而為傳遞到下一個(gè)節(jié)點(diǎn)的輸出。

通過(guò)上圖的公式可以看到,輸出 h'與 x 和 h 的值都相關(guān)。

而 y 則常常使用 h'投入到一個(gè)線性層(主要是進(jìn)行維度映射)然后使用softmax進(jìn)行分類得到需要的數(shù)據(jù)。

對(duì)這里的y如何通過(guò) h'計(jì)算得到往往看具體模型的使用方式。

通過(guò)序列形式的輸入,我們能夠得到如下形式的RNN。

ba767a90-a355-11ec-952b-dac502259ad0.png

2. LSTM

2.1 什么是LSTM

長(zhǎng)短期記憶(Long short-term memory, LSTM)是一種特殊的RNN,主要是為了解決長(zhǎng)序列訓(xùn)練過(guò)程中的梯度消失和梯度爆炸問(wèn)題。簡(jiǎn)單來(lái)說(shuō),就是相比普通的RNN,LSTM能夠在更長(zhǎng)的序列中有更好的表現(xiàn)。

LSTM結(jié)構(gòu)(圖右)和普通RNN的主要輸入輸出區(qū)別如下所示。

ba9e1884-a355-11ec-952b-dac502259ad0.png

相比RNN只有一個(gè)傳遞狀態(tài),LSTM有兩個(gè)傳輸狀態(tài),一個(gè)(cell state),和一個(gè)(hidden state)。RNN中的等價(jià)于LSTM中的。

其中對(duì)于傳遞下去的改變得很慢,通常輸出的是上一個(gè)狀態(tài)傳過(guò)來(lái)的加上一些數(shù)值。

而則在不同節(jié)點(diǎn)下往往會(huì)有很大的區(qū)別。

2.2 深入LSTM結(jié)構(gòu)

下面具體對(duì)LSTM的內(nèi)部結(jié)構(gòu)來(lái)進(jìn)行剖析。

首先使用LSTM的當(dāng)前輸入和上一個(gè)狀態(tài)傳遞下來(lái)的拼接訓(xùn)練得到四個(gè)狀態(tài)。

baaf8b0a-a355-11ec-952b-dac502259ad0.png

其中,,是由拼接向量乘以權(quán)重矩陣之后,再通過(guò)一個(gè) sigmoid激活函數(shù)轉(zhuǎn)換成0到1之間的數(shù)值,來(lái)作為一種門(mén)控狀態(tài)。而則是將結(jié)果通過(guò)一個(gè) tanh激活函數(shù)將轉(zhuǎn)換成-1到1之間的值(這里使用 tanh是因?yàn)檫@里是將其做為輸入數(shù)據(jù),而不是門(mén)控信號(hào))。

下面開(kāi)始進(jìn)一步介紹這四個(gè)狀態(tài)在LSTM內(nèi)部的使用(敲黑板)

bac692d2-a355-11ec-952b-dac502259ad0.png

是Hadamard Product,也就是操作矩陣中對(duì)應(yīng)的元素相乘,因此要求兩個(gè)相乘矩陣是同型的。則代表進(jìn)行矩陣加法。

LSTM內(nèi)部主要有三個(gè)階段:

1. 忘記階段。這個(gè)階段主要是對(duì)上一個(gè)節(jié)點(diǎn)傳進(jìn)來(lái)的輸入進(jìn)行選擇性忘記。簡(jiǎn)單來(lái)說(shuō)就是會(huì) “忘記不重要的,記住重要的”。

具體來(lái)說(shuō)是通過(guò)計(jì)算得到的(f表示forget)來(lái)作為忘記門(mén)控,來(lái)控制上一個(gè)狀態(tài)的哪些需要留哪些需要忘。

2. 選擇記憶階段。這個(gè)階段將這個(gè)階段的輸入有選擇性地進(jìn)行“記憶”。主要是會(huì)對(duì)輸入進(jìn)行選擇記憶。哪些重要?jiǎng)t著重記錄下來(lái),哪些不重要,則少記一些。當(dāng)前的輸入內(nèi)容由前面計(jì)算得到的表示。而選擇的門(mén)控信號(hào)則是由(i代表information)來(lái)進(jìn)行控制。

將上面兩步得到的結(jié)果相加,即可得到傳輸給下一個(gè)狀態(tài)的。也就是上圖中的第一個(gè)公式。

3. 輸出階段。這個(gè)階段將決定哪些將會(huì)被當(dāng)成當(dāng)前狀態(tài)的輸出。主要是通過(guò)來(lái)進(jìn)行控制的。并且還對(duì)上一階段得到的進(jìn)行了放縮(通過(guò)一個(gè)tanh激活函數(shù)進(jìn)行變化)。

與普通RNN類似,輸出往往最終也是通過(guò)變化得到。

3. 總結(jié)

以上,就是LSTM的內(nèi)部結(jié)構(gòu)。通過(guò)門(mén)控狀態(tài)來(lái)控制傳輸狀態(tài),記住需要長(zhǎng)時(shí)間記憶的,忘記不重要的信息;而不像普通的RNN那樣只能夠“呆萌”地僅有一種記憶疊加方式。對(duì)很多需要“長(zhǎng)期記憶”的任務(wù)來(lái)說(shuō),尤其好用。

但也因?yàn)橐肓撕芏鄡?nèi)容,導(dǎo)致參數(shù)變多,也使得訓(xùn)練難度加大了很多。因此很多時(shí)候我們往往會(huì)使用效果和LSTM相當(dāng)?shù)珔?shù)更少的GRU來(lái)構(gòu)建大訓(xùn)練量的模型。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4771

    瀏覽量

    100723
  • LSTM
    +關(guān)注

    關(guān)注

    0

    文章

    59

    瀏覽量

    3748

原文標(biāo)題:人人都能看懂的LSTM

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    FPGA也能做RNN

    ,GPU只能提供有限的并行性。針對(duì)這個(gè)問(wèn)題,普渡大學(xué)的研究人員提出了一種LSTM在Zynq 7020 FPGA的硬件實(shí)現(xiàn)方案,該方案在FPGA中實(shí)現(xiàn)了2層128個(gè)隱藏單元的RNN,并且使用字符級(jí)語(yǔ)言模型
    發(fā)表于 07-31 10:11

    放棄 RNNLSTM 吧,它們真的不好用

    2014 年 RNN/LSTM 起死回生。自此,RNN/LSTM 及其變種逐漸被廣大用戶接受和認(rèn)可。起初,LSTM
    的頭像 發(fā)表于 04-25 09:43 ?2.1w次閱讀

    RNN及其變體LSTM和GRU

    下圖為一個(gè)雙層LSTM對(duì)三個(gè)不同的單詞的反應(yīng)分布。該LSTM每層有600個(gè)細(xì)胞狀態(tài)單元,基于Penn Tree Bank(PTB)數(shù)據(jù)集訓(xùn)練。我們可以看到,模型對(duì)介詞(“for”)和代詞(“he”、“she”)的反應(yīng)模式大不相同。
    的頭像 發(fā)表于 06-30 11:11 ?1.6w次閱讀
    <b class='flag-5'>RNN</b>及其變體<b class='flag-5'>LSTM</b>和GRU

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和(LSTM)初學(xué)者指南

    最近,有一篇入門(mén)文章引發(fā)了不少關(guān)注。文章中詳細(xì)介紹了循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),及其變體長(zhǎng)短期記憶(LSTM)背后的原理。
    發(fā)表于 02-05 13:43 ?939次閱讀

    一種具有強(qiáng)記憶力的 E3D-LSTM網(wǎng)絡(luò),強(qiáng)化了LSTM的長(zhǎng)時(shí)記憶能力

    標(biāo)準(zhǔn) LSTM 單元結(jié)構(gòu) 首先簡(jiǎn)要介紹一下標(biāo)準(zhǔn) LSTM 結(jié)構(gòu),和 RNN 相比 LSTM 增加了更復(fù)雜的門(mén)結(jié)構(gòu)(圖中黃色模塊),主要解決 RN
    的頭像 發(fā)表于 09-01 07:35 ?1.1w次閱讀
    一種具有強(qiáng)記憶力的 E3D-<b class='flag-5'>LSTM</b>網(wǎng)絡(luò),強(qiáng)化了<b class='flag-5'>LSTM</b>的長(zhǎng)時(shí)記憶能力

    循環(huán)神經(jīng)網(wǎng)絡(luò)LSTM為何如此有效?

    長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM),作為一種改進(jìn)之后的循環(huán)神經(jīng)網(wǎng)絡(luò),不僅能夠解決 RNN無(wú)法處理長(zhǎng)距離的依賴的問(wèn)題,還能夠解決神經(jīng)網(wǎng)絡(luò)中常見(jiàn)的梯度爆炸或梯度消失等問(wèn)題,在處理序列數(shù)據(jù)方面非常有效。 有效背后
    的頭像 發(fā)表于 03-19 11:22 ?2836次閱讀
    循環(huán)神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>LSTM</b>為何如此有效?

    深度分析RNN的模型結(jié)構(gòu),優(yōu)缺點(diǎn)以及RNN模型的幾種應(yīng)用

    強(qiáng)大的Bert模型家族,都是站在RNN的肩上,不斷演化、變強(qiáng)的。 這篇文章,闡述了RNN的方方面面,包括模型結(jié)構(gòu),優(yōu)缺點(diǎn),RNN模型的幾種應(yīng)用,RNN常使用的激活函數(shù),
    的頭像 發(fā)表于 05-13 10:47 ?2.4w次閱讀
    深度分析<b class='flag-5'>RNN</b>的模型結(jié)構(gòu),優(yōu)缺點(diǎn)<b class='flag-5'>以及</b><b class='flag-5'>RNN</b>模型的幾種應(yīng)用

    如何理解RNNLSTM神經(jīng)網(wǎng)絡(luò)

    在深入探討RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(Long Short-Term Memory,長(zhǎng)短期記憶網(wǎng)絡(luò))神經(jīng)網(wǎng)絡(luò)之前,我們首先需要明確它們
    的頭像 發(fā)表于 07-09 11:12 ?634次閱讀

    LSTM模型的基本組成

    長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)架構(gòu),它在處理序列數(shù)據(jù)時(shí)能夠捕捉長(zhǎng)期依賴關(guān)系,有效解決了傳統(tǒng)RNN在處理長(zhǎng)序列時(shí)容易出現(xiàn)
    的頭像 發(fā)表于 07-10 17:01 ?1217次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實(shí)現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長(zhǎng)期依賴信息。在處理序列數(shù)據(jù)時(shí),如時(shí)間序列分析、自然語(yǔ)言處理等,LSTM因其能夠有效地捕捉時(shí)間序列中的長(zhǎng)期依賴關(guān)系而受到
    的頭像 發(fā)表于 11-13 09:53 ?380次閱讀

    使用LSTM神經(jīng)網(wǎng)絡(luò)處理自然語(yǔ)言處理任務(wù)

    自然語(yǔ)言處理(NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,特別是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體——長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)的出現(xiàn)
    的頭像 發(fā)表于 11-13 09:56 ?374次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    長(zhǎng)短期記憶(Long Short-Term Memory, LSTM)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),由Hochreiter和Schmidhuber在1997年提出。LSTM因其在處理
    的頭像 發(fā)表于 11-13 09:57 ?1054次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長(zhǎng)序列時(shí)存在梯度消失或梯度爆炸的問(wèn)題。為了解決這一問(wèn)題,LSTM(長(zhǎng)短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)運(yùn)而生。 循環(huán)
    的頭像 發(fā)表于 11-13 09:58 ?280次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的調(diào)參技巧

    長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長(zhǎng)期依賴信息。在實(shí)際應(yīng)用中,LSTM網(wǎng)絡(luò)的調(diào)參是一個(gè)復(fù)雜且關(guān)鍵的過(guò)程,直接影響
    的頭像 發(fā)表于 11-13 10:01 ?532次閱讀

    RNNLSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(長(zhǎng)短期記憶網(wǎng)絡(luò))模型在深度學(xué)習(xí)領(lǐng)域都具有處理序列數(shù)據(jù)的能力,但它們?cè)诮Y(jié)構(gòu)、功能和應(yīng)用上存在顯著的差異。以下是對(duì)RNNLSTM模型的比較分析: 一、基
    的頭像 發(fā)表于 11-15 10:05 ?384次閱讀
    主站蜘蛛池模板: 桥本有菜护士| 成人国产在线看不卡| 久久婷婷五月综合色情| 一久久| 久久vs国产| 在线 国产 欧美 专区| 久久免费视频在线观看6| 中国xxxxx| 毛片在线看片| adc我们的永久网址| 皮皮色狼网| 处xxxx.88| 我与旗袍老师疯狂床震| 国产午夜精品一区理论片飘花| 亚洲电影不卡| 教室眠催白丝美女校花| 在线观看中文| 欧美阿v在线免播播放| 草柳最新地址| 玩弄朋友娇妻呻吟交换电影| 国产日韩欧美有码在线视频| 亚洲人成人毛片无遮挡| 久久免费电影| av淘宝 在线观看| 日日碰狠狠躁久久躁77777| 国产精品人妻无码久久久蜜桃| 亚洲国产日韩欧美高清片a| 久久国产免费观看精品1| 最新亚洲人成网站在线影院| 欧美美女论坛| 国产成人久久AV免费看澳门| 亚洲国产高清在线| 久久怡红院国产精品| DASD-700美谷朱里| 特黄大片aaaaa毛片| 黄色亚洲片| 99re10久久热| 色-情-伦-理一区二区三区| 国产亚洲视频在线观看| 中国老妇xxxhd| 日本湿姝在线观看|