色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

關于深度學習最常用的10大激活函數詳解

深度學習自然語言處理 ? 來源:機械之心 ? 作者:Sukanya Bag ? 2021-03-12 17:45 ? 次閱讀

今天早上在reddit上刷到一張非常形象mó xìng的圖,

那就讓我們來整理一下深度學習中離不開的激活函數!

激活函數(Activation Function)是一種添加到人工神經網絡中的函數,旨在幫助網絡學習數據中的復雜模式。類似于人類大腦中基于神經元的模型,激活函數最終決定了要發射給下一個神經元的內容。

在人工神經網絡中,一個節點的激活函數定義了該節點在給定的輸入或輸入集合下的輸出。標準的計算機芯片電路可以看作是根據輸入得到開(1)或關(0)輸出的數字電路激活函數。因此,激活函數是確定神經網絡輸出的數學方程式,本文概述了深度學習中常見的十種激活函數及其優缺點。

首先我們來了解一下人工神經元的工作原理,大致如下:

上述過程的數學可視化過程如下圖所示:

1. Sigmoid 激活函數

Sigmoid 函數的圖像看起來像一個 S 形曲線。

函數表達式如下:

在什么情況下適合使用 Sigmoid 激活函數呢?

Sigmoid 函數的輸出范圍是 0 到 1。由于輸出值限定在 0 到 1,因此它對每個神經元的輸出進行了歸一化;

用于將預測概率作為輸出的模型。由于概率的取值范圍是 0 到 1,因此 Sigmoid 函數非常合適;

梯度平滑,避免「跳躍」的輸出值;

函數是可微的。這意味著可以找到任意兩個點的 sigmoid 曲線的斜率;

明確的預測,即非常接近 1 或 0。

Sigmoid 激活函數有哪些缺點?

傾向于梯度消失;

函數輸出不是以 0 為中心的,這會降低權重更新的效率;

Sigmoid 函數執行指數運算,計算機運行得較慢。

2. Tanh / 雙曲正切激活函數

tanh 激活函數的圖像也是 S 形,表達式如下:

tanh 是一個雙曲正切函數。tanh 函數和 sigmoid 函數的曲線相對相似。但是它比 sigmoid 函數更有一些優勢。

首先,當輸入較大或較小時,輸出幾乎是平滑的并且梯度較小,這不利于權重更新。二者的區別在于輸出間隔,tanh 的輸出間隔為 1,并且整個函數以 0 為中心,比 sigmoid 函數更好;

在 tanh 圖中,負輸入將被強映射為負,而零輸入被映射為接近零。

注意:在一般的二元分類問題中,tanh 函數用于隱藏層,而 sigmoid 函數用于輸出層,但這并不是固定的,需要根據特定問題進行調整。

3. ReLU 激活函數

ReLU 激活函數圖像如上圖所示,函數表達式如下:

be0bfc7c-82c5-11eb-8b86-12bb97331649.png

ReLU 函數是深度學習中較為流行的一種激活函數,相比于 sigmoid 函數和 tanh 函數,它具有如下優點:

當輸入為正時,不存在梯度飽和問題。

計算速度快得多。ReLU 函數中只存在線性關系,因此它的計算速度比 sigmoid 和 tanh 更快。

當然,它也有缺點:

Dead ReLU 問題。當輸入為負時,ReLU 完全失效,在正向傳播過程中,這不是問題。有些區域很敏感,有些則不敏感。但是在反向傳播過程中,如果輸入負數,則梯度將完全為零,sigmoid 函數和 tanh 函數也具有相同的問題;

我們發現 ReLU 函數的輸出為 0 或正數,這意味著 ReLU 函數不是以 0 為中心的函數。

4. Leaky ReLU

它是一種專門設計用于解決 Dead ReLU 問題的激活函數:

be21c37c-82c5-11eb-8b86-12bb97331649.png

ReLU vs Leaky ReLU

為什么 Leaky ReLU 比 ReLU 更好?

be62c1a6-82c5-11eb-8b86-12bb97331649.png

Leaky ReLU 通過把 x 的非常小的線性分量給予負輸入(0.01x)來調整負值的零梯度(zero gradients)問題;

leak 有助于擴大 ReLU 函數的范圍,通常 a 的值為 0.01 左右;

Leaky ReLU 的函數范圍是(負無窮到正無窮)。

注意:從理論上講,Leaky ReLU 具有 ReLU 的所有優點,而且 Dead ReLU 不會有任何問題,但在實際操作中,尚未完全證明 Leaky ReLU 總是比 ReLU 更好。

5. ELU

ELU vs Leaky ReLU vs ReLU

ELU 的提出也解決了 ReLU 的問題。與 ReLU 相比,ELU 有負值,這會使激活的平均值接近零。均值激活接近于零可以使學習更快,因為它們使梯度更接近自然梯度。

beb1d7b4-82c5-11eb-8b86-12bb97331649.png

顯然,ELU 具有 ReLU 的所有優點,并且:

沒有 Dead ReLU 問題,輸出的平均值接近 0,以 0 為中心;

ELU 通過減少偏置偏移的影響,使正常梯度更接近于單位自然梯度,從而使均值向零加速學習;

ELU 在較小的輸入下會飽和至負值,從而減少前向傳播的變異和信息

一個小問題是它的計算強度更高。與 Leaky ReLU 類似,盡管理論上比 ReLU 要好,但目前在實踐中沒有充分的證據表明 ELU 總是比 ReLU 好。

6. PReLU(Parametric ReLU)

PReLU 也是 ReLU 的改進版本:

看一下 PReLU 的公式:參數α通常為 0 到 1 之間的數字,并且通常相對較小。

如果 a_i= 0,則 f 變為 ReLU

如果 a_i》 0,則 f 變為 leaky ReLU

如果 a_i 是可學習的參數,則 f 變為 PReLU

PReLU 的優點如下:

在負值域,PReLU 的斜率較小,這也可以避免 Dead ReLU 問題。

與 ELU 相比,PReLU 在負值域是線性運算。盡管斜率很小,但不會趨于 0。

7. Softmax

Softmax 是用于多類分類問題的激活函數,在多類分類問題中,超過兩個類標簽則需要類成員關系。對于長度為 K 的任意實向量,Softmax 可以將其壓縮為長度為 K,值在(0,1)范圍內,并且向量中元素的總和為 1 的實向量。

Softmax 與正常的 max 函數不同:max 函數僅輸出最大值,但 Softmax 確保較小的值具有較小的概率,并且不會直接丟棄。我們可以認為它是 argmax 函數的概率版本或「soft」版本。

Softmax 函數的分母結合了原始輸出值的所有因子,這意味著 Softmax 函數獲得的各種概率彼此相關。

Softmax 激活函數的主要缺點是:

在零點不可微;

負輸入的梯度為零,這意味著對于該區域的激活,權重不會在反向傳播期間更新,因此會產生永不激活的死亡神經元。

8. Swish

函數表達式:y = x * sigmoid (x)

Swish 的設計受到了 LSTM 和高速網絡中 gating 的 sigmoid 函數使用的啟發。我們使用相同的 gating 值來簡化 gating 機制,這稱為 self-gating。

self-gating 的優點在于它只需要簡單的標量輸入,而普通的 gating 則需要多個標量輸入。這使得諸如 Swish 之類的 self-gated 激活函數能夠輕松替換以單個標量為輸入的激活函數(例如 ReLU),而無需更改隱藏容量或參數數量。

Swish 激活函數的主要優點如下:

「無界性」有助于防止慢速訓練期間,梯度逐漸接近 0 并導致飽和;(同時,有界性也是有優勢的,因為有界激活函數可以具有很強的正則化,并且較大的負輸入問題也能解決);

導數恒 》 0;

平滑度在優化和泛化中起了重要作用。

9. Maxout

在 Maxout 層,激活函數是輸入的最大值,因此只有 2 個 maxout 節點的多層感知機就可以擬合任意的凸函數。

單個 Maxout 節點可以解釋為對一個實值函數進行分段線性近似 (PWL) ,其中函數圖上任意兩點之間的線段位于圖(凸函數)的上方。

c0333948-82c5-11eb-8b86-12bb97331649.png

Maxout 也可以對 d 維向量(V)實現:

假設兩個凸函數 h_1(x) 和 h_2(x),由兩個 Maxout 節點近似化,函數 g(x) 是連續的 PWL 函數。

c0b5edd4-82c5-11eb-8b86-12bb97331649.png

因此,由兩個 Maxout 節點組成的 Maxout 層可以很好地近似任何連續函數。

10. Softplus

Softplus 函數:f(x)= ln(1 + exp x)

Softplus 的導數為

f ′(x)=exp(x) / ( 1+exp? x )

= 1/ (1 +exp(?x ))

,也稱為 logistic / sigmoid 函數。

Softplus 函數類似于 ReLU 函數,但是相對較平滑,像 ReLU 一樣是單側抑制。它的接受范圍很廣:(0, + inf)。
編輯:lyn

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 函數
    +關注

    關注

    3

    文章

    4327

    瀏覽量

    62573
  • 深度學習
    +關注

    關注

    73

    文章

    5500

    瀏覽量

    121113

原文標題:深度學習最常用的10個激活函數!

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    詳解kubectl常用命令

    詳解kubectl常用命令
    的頭像 發表于 11-05 15:39 ?193次閱讀
    <b class='flag-5'>詳解</b>kubectl<b class='flag-5'>常用</b>命令

    labview常用的基本函數

    電子發燒友網站提供《labview常用的基本函數.pdf》資料免費下載
    發表于 10-15 17:29 ?7次下載

    利用Matlab函數實現深度學習算法

    在Matlab中實現深度學習算法是一個復雜但強大的過程,可以應用于各種領域,如圖像識別、自然語言處理、時間序列預測等。這里,我將概述一個基本的流程,包括環境設置、數據準備、模型設計、訓練過程、以及測試和評估,并提供一個基于Matlab的
    的頭像 發表于 07-14 14:21 ?2166次閱讀

    神經元模型激活函數通常有哪幾類

    神經元模型激活函數是神經網絡中的關鍵組成部分,它們負責在神經元之間引入非線性,使得神經網絡能夠學習和模擬復雜的函數映射。以下是對神經元模型激活
    的頭像 發表于 07-11 11:33 ?1029次閱讀

    深度學習中的時間序列分類方法

    的發展,基于深度學習的TSC方法逐漸展現出其強大的自動特征提取和分類能力。本文將從多個角度對深度學習在時間序列分類中的應用進行綜述,探討常用
    的頭像 發表于 07-09 15:54 ?877次閱讀

    前饋神經網絡的基本結構和常見激活函數

    激活函數的非線性變換,能夠學習和模擬復雜的函數映射,從而解決各種監督學習任務。本文將詳細闡述前饋神經網絡的基本結構,包括其組成層、權重和偏
    的頭像 發表于 07-09 10:31 ?773次閱讀

    深度學習常用的Python庫

    深度學習常用的Python庫,包括核心庫、可視化工具、深度學習框架、自然語言處理庫以及數據抓取庫等,并詳細分析它們的功能和優勢。
    的頭像 發表于 07-03 16:04 ?625次閱讀

    BP神經網絡激活函數怎么選擇

    中,激活函數起著至關重要的作用,它決定了神經元的輸出方式,進而影響整個網絡的性能。 一、激活函數的作用 激活
    的頭像 發表于 07-03 10:02 ?674次閱讀

    卷積神經網絡激活函數的作用

    卷積神經網絡(Convolutional Neural Networks, CNNs)是深度學習中一種重要的神經網絡結構,廣泛應用于圖像識別、語音識別、自然語言處理等領域。在卷積神經網絡中,激活
    的頭像 發表于 07-03 09:18 ?869次閱讀

    神經網絡中激活函數的定義及類型

    引言 神經網絡是一種模擬人腦神經元結構的計算模型,廣泛應用于圖像識別、自然語言處理、語音識別等領域。在神經網絡中,激活函數起著至關重要的作用,它決定了神經元的輸出值,進而影響整個網絡的性能。本文將
    的頭像 發表于 07-02 10:09 ?514次閱讀

    深度學習模型訓練過程詳解

    詳細介紹深度學習模型訓練的全過程,包括數據預處理、模型構建、損失函數定義、優化算法選擇、訓練過程以及模型的評估與調優。
    的頭像 發表于 07-01 16:13 ?1236次閱讀

    神經網絡中的激活函數有哪些

    在神經網絡中,激活函數是一個至關重要的組成部分,它決定了神經元對于輸入信號的反應方式,為神經網絡引入了非線性因素,使得網絡能夠學習和處理復雜的模式。本文將詳細介紹神經網絡中常用
    的頭像 發表于 07-01 11:52 ?573次閱讀

    MATLAB信號處理常用函數詳解

    MATLAB是一款功能強大的數學軟件,尤其在信號處理領域,它提供了眾多的函數和工具箱,使得信號的分析、處理、仿真變得簡單而高效。本文將詳細介紹MATLAB在信號處理中常用函數,并通過具體示例來闡述其應用。
    的頭像 發表于 05-17 14:31 ?2119次閱讀

    PyTorch中激活函數的全面概覽

    為了更清晰地學習Pytorch中的激活函數,并對比它們之間的不同,這里對最新版本的Pytorch中的激活函數進行了匯總,主要介紹
    的頭像 發表于 04-30 09:26 ?543次閱讀
    PyTorch中<b class='flag-5'>激活</b><b class='flag-5'>函數</b>的全面概覽

    詳解深度學習、神經網絡與卷積神經網絡的應用

    在如今的網絡時代,錯綜復雜的大數據和網絡環境,讓傳統信息處理理論、人工智能與人工神經網絡都面臨巨大的挑戰。近些年,深度學習逐漸走進人們的視線,通過深度學習解決若干問題的案例越來越多。一
    的頭像 發表于 01-11 10:51 ?2025次閱讀
    <b class='flag-5'>詳解</b><b class='flag-5'>深度</b><b class='flag-5'>學習</b>、神經網絡與卷積神經網絡的應用
    主站蜘蛛池模板: 秋秋影视午夜福利高清| 亚洲精品国偷拍自产在线观看蜜臀 | 国产欧洲野花A级| 欧美一区二区视频在线观看| 一区在线观看在线| 曰韩一本道高清无码av| adc年龄确认大驾光临入口| 久久大综合| 亚洲欧美一级久久精品| 国产精品亚洲视频在线观看| 日本久久频这里精品99| GOGOGO高清在线播放韩国| 麻豆一区二区免费播放网站| 色中色成人论坛| 荡乳乱公小说| 色婷婷激情AV精品影院| 纯肉高H啪短文合集| 人和拘一级毛片| OLDMAN老头456 TUBE| 欧美精品AV精品一区视频| xxxx美国老师1819| 日本真人啪啪试看30秒| 广西美女色炮150p图| 婷婷五月久久丁香国产综合| 国产久久re6免费热在线| 亚洲高清视频在线观看| 精品国产90后在线观看| 伊人久久大香线蕉综合亚洲| 空姐厕所啪啪啪| QVOD理论| 我要色色网| 久久久午夜精品福利内容| 5g天天影院天天看天天爽| 欧美最猛黑人XXXXWWW| 国产51麻豆二区精品AV视频| 亚洲精品无码一区二区三区四虎 | 亚洲福利视频导航| 久久精品亚洲国产AV涩情| 97亚洲狠狠色综合久久位| 日本妈妈xxxx| 九色PORNY真实丨首页|