色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

激活函數(shù)中sigmoid、ReLU等函數(shù)的一些性質(zhì)

lviY_AI_shequ ? 來(lái)源:未知 ? 作者:李倩 ? 2018-08-02 14:52 ? 次閱讀

本文主要是回答激活函數(shù)的使用

我們認(rèn)識(shí)的激活函數(shù)中sigmoid、ReLU等,今天就是要講解一下這些函數(shù)的一些性質(zhì)

激活函數(shù)通常有一些性質(zhì):

非線性:當(dāng)激活函數(shù)是線性的時(shí)候,一個(gè)兩層的神經(jīng)網(wǎng)絡(luò)就可以基本逼近所有的函數(shù),但是,如果激活函數(shù)是恒等激活函數(shù)的時(shí)候,就不滿足這個(gè)性質(zhì)了,而且如果MLP使用的是恒等激活函數(shù),那么其實(shí)整個(gè)網(wǎng)絡(luò)跟單層神經(jīng)網(wǎng)絡(luò)是等價(jià)的

可微性:當(dāng)優(yōu)化方法是基于梯度的時(shí)候,這個(gè)性質(zhì)是必須的

單調(diào)性:當(dāng)激活函數(shù)是單調(diào)的時(shí)候,這個(gè)性質(zhì)是必須的

f(x)≈x:當(dāng)激活函數(shù)滿足這個(gè)性質(zhì)的時(shí)候,如果參數(shù)的初始化是random的很小的值,那么神經(jīng)網(wǎng)絡(luò)的訓(xùn)練將會(huì)很高效;如果不滿足這個(gè)性質(zhì),那么就需要很用心的去設(shè)置初始值

輸出值的范圍:當(dāng)激活函數(shù)輸出值是有限的時(shí)候,基于梯度的優(yōu)化方法會(huì)更加穩(wěn)定,因?yàn)樘卣鞯谋硎荆?dāng)激活函數(shù)的輸出是無(wú)限的時(shí)候,模型訓(xùn)練會(huì)更加的高效,不過(guò)在這種情況很小,一般需要一個(gè)更小的學(xué)習(xí)率

Sigmoid函數(shù)

Sigmoid是常用的激活函數(shù),它的數(shù)學(xué)形式是這樣,

當(dāng)如果是非常大的負(fù)數(shù)或者正數(shù)的時(shí)候,梯度非常小,接近為0,如果你的初始值是很大的話,大部分神經(jīng)元都出在飽和的情況,會(huì)導(dǎo)致很難學(xué)習(xí)

還有就是Sigmoid的輸出,不是均值為0為的平均數(shù),如果數(shù)據(jù)進(jìn)入神經(jīng)元的時(shí)候是正的(e.g.x>0elementwise inf=wTx+b),那么w計(jì)算出的梯度也會(huì)始終都是正的。

當(dāng)然了,如果你是按batch去訓(xùn)練,那么那個(gè)batch可能得到不同的信號(hào),所以這個(gè)問(wèn)題還是可以緩解一下的。因此,非0均值這個(gè)問(wèn)題雖然會(huì)產(chǎn)生一些不好的影響

tanh

和Sigmoid函數(shù)很像,不同的是均值為0,實(shí)際上是Sigmoid的變形

數(shù)學(xué)形式

與Sigmoid不同的是,tanh是均值為0

ReLU

今年來(lái),ReLU貌似用的很多

數(shù)學(xué)形式

ReLU的優(yōu)點(diǎn)

相比較其他的,ReLU的收斂速度會(huì)比其他的方法收斂速度快的多

ReLU只需要一個(gè)閾值就可以得到激活值,而不用去算一大堆復(fù)雜的運(yùn)算

也有一個(gè)很不好的缺點(diǎn):就是當(dāng)非常大的梯度流過(guò)一個(gè) ReLU 神經(jīng)元,更新過(guò)參數(shù)之后,這個(gè)神經(jīng)元再也不會(huì)對(duì)任何數(shù)據(jù)有激活現(xiàn)象了,所以我們?cè)谟?xùn)練的時(shí)候都需要設(shè)置一個(gè)比較合適的較小的學(xué)習(xí)率

Leaky-ReLU、P-ReLU、R-ReLU

數(shù)學(xué)形式

f(x)=x,(x>=0)

這里的α是一個(gè)很小的常數(shù)。這樣,即修正了數(shù)據(jù)分布,又保留了一些負(fù)軸的值,使得負(fù)軸信息不會(huì)全部丟失

自己在寫(xiě)神經(jīng)網(wǎng)絡(luò)算法的時(shí)候還沒(méi)嘗試過(guò)這個(gè)激活函數(shù),有興趣的同學(xué)可以試試效果

對(duì)于 Leaky ReLU 中的α,通常都是通過(guò)先驗(yàn)知識(shí)人工賦值的。

然而可以觀察到,損失函數(shù)對(duì)α的導(dǎo)數(shù)我們是可以求得的,可不可以將它作為一個(gè)參數(shù)進(jìn)行訓(xùn)練呢?

不僅可以訓(xùn)練,而且效果更好。

如何去選擇

目前業(yè)界人都比較流行ReLU,

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:BP神經(jīng)網(wǎng)絡(luò)常用激活函數(shù)

文章出處:【微信號(hào):AI_shequ,微信公眾號(hào):人工智能愛(ài)好者社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    sigmoid函數(shù)波形

    1、Sigmoid函數(shù)原型2、sigmoid函數(shù)波形:由圖形可看出在-10時(shí)已經(jīng)接近于0,般取值區(qū)間在[-5,5]。3、
    發(fā)表于 09-03 06:53

    Sigmoid函數(shù)介紹

    Sigmoid 函數(shù)1.1 Sigmoid函數(shù)原型1.2 sigmoid
    發(fā)表于 09-03 09:06

    多輸出Plateaued函數(shù)的密碼學(xué)性質(zhì)

    該文對(duì)多輸出Plateaued 函數(shù)一些密碼學(xué)性質(zhì)進(jìn)行了研究,以多輸出函數(shù)的特征函數(shù)為工具,建立了多輸出Plateaued
    發(fā)表于 11-17 13:51 ?18次下載

    Sigmoid函數(shù)的擬合法分析及其高效處理

    使用分段非線性逼近算法計(jì)算超越函數(shù),以神經(jīng)網(wǎng)絡(luò)應(yīng)用最為廣泛的Sigmoid函數(shù)為例,結(jié)合函數(shù)自身對(duì)稱的
    發(fā)表于 11-15 13:15 ?1.2w次閱讀
    <b class='flag-5'>Sigmoid</b><b class='flag-5'>函數(shù)</b>的擬合法分析及其高效處理

    ReLU到Sinc的26種神經(jīng)網(wǎng)絡(luò)激活函數(shù)可視化大盤(pán)點(diǎn)

    本文介紹了26個(gè)激活函數(shù)的圖示及其階導(dǎo)數(shù),在神經(jīng)網(wǎng)絡(luò)激活函數(shù)決定來(lái)自給定輸入集的節(jié)點(diǎn)的輸出
    發(fā)表于 01-11 17:42 ?3.1w次閱讀
    <b class='flag-5'>ReLU</b>到Sinc的26種神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>可視化大盤(pán)點(diǎn)

    13種神經(jīng)網(wǎng)絡(luò)激活函數(shù)

    ReLU(Rectified Linear Unit,修正線性單元)訓(xùn)練速度比tanh快6倍。當(dāng)輸入值小于零時(shí),輸出值為零。當(dāng)輸入值大于等于零時(shí),輸出值等于輸入值。當(dāng)輸入值為正數(shù)時(shí),導(dǎo)數(shù)為1,因此不會(huì)出現(xiàn)sigmoid函數(shù)反向傳
    的頭像 發(fā)表于 05-16 11:18 ?3.3w次閱讀
    13種神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>

    一些人會(huì)懷疑:難道神經(jīng)網(wǎng)絡(luò)不是最先進(jìn)的技術(shù)?

    如上圖所示,sigmoid的作用確實(shí)是有目共睹的,它能把任何輸入的閾值都限定在0到1之間,非常適合概率預(yù)測(cè)和分類預(yù)測(cè)。但這幾年sigmoid與tanh卻直火不起來(lái),凡是提及激活
    的頭像 發(fā)表于 06-30 08:55 ?3348次閱讀

    PyTorch已為我們實(shí)現(xiàn)了大多數(shù)常用的非線性激活函數(shù)

    PyTorch已為我們實(shí)現(xiàn)了大多數(shù)常用的非線性激活函數(shù),我們可以像使用任何其他的層那樣使用它們。讓我們快速看個(gè)在PyTorch中使用ReLU激活
    的頭像 發(fā)表于 07-06 14:47 ?929次閱讀

    在PyTorch中使用ReLU激活函數(shù)的例子

    PyTorch已為我們實(shí)現(xiàn)了大多數(shù)常用的非線性激活函數(shù),我們可以像使用任何其他的層那樣使用它們。讓我們快速看個(gè)在PyTorch中使用ReLU激活
    的頭像 發(fā)表于 07-06 15:27 ?2537次閱讀

    Dynamic ReLU:根據(jù)輸入動(dòng)態(tài)確定的ReLU

    這是我最近才看到的篇論文,它提出了動(dòng)態(tài)ReLU (Dynamic ReLU, DY-ReLU),可以將全局上下文編碼為超函數(shù),并相應(yīng)地調(diào)整
    的頭像 發(fā)表于 09-01 17:28 ?699次閱讀
    Dynamic <b class='flag-5'>ReLU</b>:根據(jù)輸入動(dòng)態(tài)確定的<b class='flag-5'>ReLU</b>

    PyTorch激活函數(shù)的全面概覽

    為了更清晰地學(xué)習(xí)Pytorch激活函數(shù),并對(duì)比它們之間的不同,這里對(duì)最新版本的Pytorch激活
    的頭像 發(fā)表于 04-30 09:26 ?543次閱讀
    PyTorch<b class='flag-5'>中</b><b class='flag-5'>激活</b><b class='flag-5'>函數(shù)</b>的全面概覽

    神經(jīng)網(wǎng)絡(luò)激活函數(shù)的定義及類型

    引言 神經(jīng)網(wǎng)絡(luò)是種模擬人腦神經(jīng)元結(jié)構(gòu)的計(jì)算模型,廣泛應(yīng)用于圖像識(shí)別、自然語(yǔ)言處理、語(yǔ)音識(shí)別領(lǐng)域。在神經(jīng)網(wǎng)絡(luò)激活函數(shù)起著至關(guān)重要的作用
    的頭像 發(fā)表于 07-02 10:09 ?514次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)激活函數(shù)的作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNNs)是深度學(xué)習(xí)中種重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),廣泛應(yīng)用于圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理領(lǐng)域。在卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 09:18 ?869次閱讀

    BP神經(jīng)網(wǎng)絡(luò)激活函數(shù)怎么選擇

    激活函數(shù)起著至關(guān)重要的作用,它決定了神經(jīng)元的輸出方式,進(jìn)而影響整個(gè)網(wǎng)絡(luò)的性能。 激活函數(shù)
    的頭像 發(fā)表于 07-03 10:02 ?674次閱讀

    神經(jīng)元模型激活函數(shù)通常有哪幾類

    神經(jīng)元模型激活函數(shù)是神經(jīng)網(wǎng)絡(luò)的關(guān)鍵組成部分,它們負(fù)責(zé)在神經(jīng)元之間引入非線性,使得神經(jīng)網(wǎng)絡(luò)能夠?qū)W習(xí)和模擬復(fù)雜的函數(shù)映射。以下是對(duì)神經(jīng)元模型激活
    的頭像 發(fā)表于 07-11 11:33 ?1028次閱讀
    主站蜘蛛池模板: 琪琪电影午夜理论片YY6080| 夜蒲团之5阳性之教| 最近中文字幕MV免费高清在线 | 亚洲高清无在码在线电影| 99热这里只有精品6| 精品免费久久久久久成人影院| 日韩一区二区三区免费体验| 123成人站| 九九热免费在线观看| 午夜性伦鲁啊鲁免费视频| 扒开粉嫩的小缝末成年小美女| 久久re这里视频精品15| 性白俄罗斯高清xxxxx| 超碰免费视频公开97| 秘密教学26我们在做一次吧免费| 亚洲午夜久久影院| 国产色综合久久无码有码| 全部免费特黄特色大片看片| 2020亚洲国产在线播放在线| 精品国产自在现线拍国语| 性派对xxxhd| 国产福利不卡在线视频| 青青草伊人网| BL低喘贯穿顶弄老师H| 麻豆无人区乱码| 中文字幕视频在线免费观看| 九九精品视频一区二区三区| 亚洲精品AV一区午夜福利| 国产精品视频成人| 世界上第一个得抑郁症的人是谁| 成人亚洲视频在线观看| 欧美人成在线观看ccc36| 91黄色大片| 嗯好舒服嗯好大好猛好爽| 18日本人XXXXXX18| 久久中文字幕免费高清| 伊人狠狠丁香婷婷综合尤物| 精品一区二区三区免费观看| 亚洲欧美日本中文子不卡| 黄片a级毛片| 亚洲午夜精品A片久久WWW软件 |