色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

機器學習中的代價函數與交叉熵

lviY_AI_shequ ? 來源:未知 ? 作者:李倩 ? 2018-05-09 15:04 ? 次閱讀

本文將介紹信息量,熵,交叉熵,相對熵的定義,以及它們與機器學習算法中代價函數的定義的聯系。

1. 信息量

信息的量化計算:

解釋如下:

信息量的大小應該可以衡量事件發生的“驚訝程度”或不確定性:

如果有人告訴我們一個相當不可能的事件發生了,我們收到的信息要多于我們被告知某個很可能發?的事件發?時收到的信息。如果我們知道某件事情?定會發?,那么我們就不會接收到信息。 也就是說,信息量應該連續依賴于事件發生的概率分布p(x)。因此,我們想要尋找一個基于概率p(x)計算信息量的函數h(x),它應該具有如下性質:

h(x) >= 0,因為信息量表示得到多少信息,不應該為負數。

h(x, y) = h(x) + h(y),也就是說,對于兩個不相關事件x和y,我們觀察到兩個事件x, y同時發?時獲得的信息應該等于觀察到事件各?發?時獲得的信息之和;

h(x)是關于p(x)的單調遞減函數,也就是說,事件x越容易發生(概率p(x)越大),信息量h(x)越小。

又因為如果兩個不相關事件是統計獨?的,則有p(x, y) =p(x)p(y)。根據不相關事件概率可乘、信息量可加,很容易想到對數函數,看出h(x)一定與p(x)的對數有關。因此,有滿足上述性質。

2. 熵(信息熵)

對于一個隨機變量X而言,它的所有可能取值的信息量的期望就稱為熵。熵的本質的另一種解釋:最短平均編碼長度(對于離散變量)。

離散變量:

連續變量:

3. 交叉熵

現有關于樣本集的2個概率分布p和q,其中p為真實分布,q非真實分布。按照真實分布p來衡量識別一個樣本的熵,即基于分布p給樣本進行編碼的最短平均編碼長度為:

如果使用非真實分布q來給樣本進行編碼,則是基于分布q的信息量的期望(最短平均編碼長度),由于用q來編碼的樣本來自分布p,所以期望與真實分布一致。所以基于分布q的最短平均編碼長度為:

上式CEH(p, q)即為交叉熵的定義。

4. 相對熵

將由q得到的平均編碼長度比由p得到的平均編碼長度多出的bit數,即使用非真實分布q計算出的樣本的熵(交叉熵),與使用真實分布p計算出的樣本的熵的差值,稱為相對熵,又稱KL散度。

KL(p, q) = CEH(p, q) - H(p)=

相對熵(KL散度)用于衡量兩個概率分布p和q的差異。注意,KL(p, q)意味著將分布p作為真實分布,q作為非真實分布,因此KL(p, q) != KL(q, p)。

5. 機器學習中的代價函數與交叉熵

若 p(x)是數據的真實概率分布, q(x)是由數據計算得到的概率分布。機器學習的目的就是希望q(x)盡可能地逼近甚至等于p(x) ,從而使得相對熵接近最小值0. 由于真實的概率分布是固定的,相對熵公式的后半部分(-H(p))就成了一個常數。那么相對熵達到最小值的時候,也意味著交叉熵達到了最小值。對q(x)的優化就等效于求交叉熵的最小值。另外,對交叉熵求最小值,也等效于求最大似然估計(maximum likelihood estimation)。

特別的,在logistic regression中,p:真實樣本分布,服從參數為p的0-1分布,即X~B(1,p)

p(x = 1) = y

p(x = 0) = 1 - yq:待估計的模型,服從參數為q的0-1分布,即X~B(1,q)

p(x = 1) = h(x)

p(x = 0) = 1-h(x)

其中h(x)為logistic regression的假設函數。兩者的交叉熵為:

對所有訓練樣本取均值得:

這個結果與通過最大似然估計方法求出來的結果一致。使用最大似然估計方法參加博客Logistic Regression.

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 函數
    +關注

    關注

    3

    文章

    4329

    瀏覽量

    62575
  • 機器學習
    +關注

    關注

    66

    文章

    8408

    瀏覽量

    132573
  • 交叉熵
    +關注

    關注

    0

    文章

    4

    瀏覽量

    2361

原文標題:信息量,熵,交叉熵,相對熵與代價函數

文章出處:【微信號:AI_shequ,微信公眾號:人工智能愛好者社區】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    信息是什么?

    2018-04-22 開胃學習數學系列 - 信息
    發表于 03-14 10:02

    什么是交叉

    2018-04-22 開胃學習數學系列 - 交叉
    發表于 03-21 11:08

    機器學習神經網絡參數的代價函數

    吳恩達機器學習筆記之神經網絡參數的反向傳播算法
    發表于 05-22 15:11

    交叉的作用原理

    交叉作為損失函數在神經網絡的作用和幾種常用的交叉損失
    發表于 06-03 09:10

    機器學習的分類器

    各種機器學習的應用場景分別是什么?例如,k近鄰,貝葉斯,決策樹,svm,邏輯斯蒂回歸和最大模型
    發表于 09-10 10:53

    大數據邊界向量調節函數支持向量機研究

    大數據邊界向量調節函數支持向量機研究_林蔚
    發表于 01-07 19:08 ?0次下載

    采用交叉支持向量機和模糊積分的電網故障診斷_邊莉

    采用交叉支持向量機和模糊積分的電網故障診斷_邊莉
    發表于 01-08 13:26 ?0次下載

    機器學習經典損失函數比較

    所有的機器學習算法都或多或少的依賴于對目標函數最大化或者最小化的過程。我們常常將最小化的函數稱為損失函數,它主要用于衡量模型的預測能力。
    的頭像 發表于 06-13 17:53 ?8562次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>經典損失<b class='flag-5'>函數</b>比較

    機器學習的logistic函數和softmax函數總結

    本文簡單總結了機器學習最常見的兩個函數,logistic函數和softmax函數。首先介紹兩者的定義和應用,最后對兩者的聯系和區別進行了總結
    的頭像 發表于 12-30 09:04 ?9762次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>的logistic<b class='flag-5'>函數</b>和softmax<b class='flag-5'>函數</b>總結

    基于交叉算法的跟馳模型標定

    的確定性標定方法會導致大量局部最優值的出現。在此基礎上,本文提出了基于交叉算法的跟馳模型標定的框架,基于蒙地卡羅與重要樣本策略逐步逼近參數的最優概率密度函數。實例分別采用合成數據與實測數據標定智能駕駛模型
    發表于 01-11 16:23 ?8次下載
    基于<b class='flag-5'>交叉</b><b class='flag-5'>熵</b>算法的跟馳模型標定

    機器學習遇上SSD,會擦出怎樣的火花呢?

    判斷一個函數的好壞,這需要確定一個衡量標準,也就是我們通常說的損失函數(Loss Function),損失函數的確定也需要依據具體問題而定,如回歸問題一般采用歐式距離,分類問題一般采用交叉
    的頭像 發表于 09-07 16:12 ?2672次閱讀
    當<b class='flag-5'>機器</b><b class='flag-5'>學習</b>遇上SSD,會擦出怎樣的火花呢?

    機器學習和深度學習中分類與回歸常用的幾種損失函數

    本文將介紹機器學習、深度學習中分類與回歸常用的幾種損失函數,包括均方差損失 Mean Squared Loss、平均絕對誤差損失 Mean Absolute Error Loss、Hu
    的頭像 發表于 10-09 16:36 ?6232次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>和深度<b class='flag-5'>學習</b>中分類與回歸常用的幾種損失<b class='flag-5'>函數</b>

    機器學習若干典型的目標函數構造方法

    幾乎所有的機器學習算法都歸結為求解最優化問題。有監督學習算法在訓練時通過優化一個目標函數而得到模型,然后用模型進行預測。無監督學習算法通常通
    的頭像 發表于 12-26 09:52 ?4274次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b><b class='flag-5'>中</b>若干典型的目標<b class='flag-5'>函數</b>構造方法

    機器學習交叉驗證方法

    機器學習交叉驗證(Cross-Validation)是一種重要的評估方法,它通過將數據集分割成多個部分來評估模型的性能,從而避免過擬合或欠擬合問題,并幫助選擇最優的超參數。本文將
    的頭像 發表于 07-10 16:08 ?1099次閱讀

    RNN的損失函數與優化算法解析

    函數有以下幾種: 交叉損失函數交叉(Cross Entropy)是一種評估兩個概率分布之
    的頭像 發表于 11-15 10:16 ?373次閱讀
    主站蜘蛛池模板: 吃奶摸下的羞羞漫画| 亚洲国产无线码在线观看| 免费麻豆国产黄网站在线观看| 国产一区二区三区国产精品| 国产乱人精品视频AV麻豆| 国产精品99久久久久久宅男AV | 女的把腿张开男的往里面插| 久久久亚洲国产精品主播| 九九热在线视频精品店| 精品亚洲麻豆1区2区3区| 精品久久久久久久高清| 挤奶门事件完整照片| 狠狠人妻久久久久久综合九色| 和美女啪啪啪动态图| 黑人性xxx| 久久精品国产免费播高清无卡| 久久yy99re66| 老太脱裤子让老头玩xxxxx| 麻豆国产人妻欲求不满| 美女内射少妇三区五区| 欧美日韩精品一区二区三区四区| 欧美精品一区二区三区四区| 人妻无码AV中文系列| 色中色入口2015| 亚洲高清视频在线| 夜色资源站国产www在线视频| 中文视频在线观看| 99久久国产综合精品网成人影院| xxxxx中国明星18| 动漫女主被扒开双腿羞辱| 国产精品免费大片| 黑人强伦姧人妻日韩那庞大的| 久久受www免费人成_看片中文 | 国产高清亚洲| 好吊射视频988gaocom| 久久亚洲视频| 日本wwwxx爽69护士| 乌克兰粉嫩摘花第一次| 亚洲综合春色另类久久| 67194成网页发布在线观看| 成年人视频在线观看免费|