色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

損失函數(shù)的簡(jiǎn)要介紹

倩倩 ? 來(lái)源:人工智能遇見磐創(chuàng) ? 2020-04-17 10:01 ? 次閱讀

不同的損失函數(shù)可用于不同的目標(biāo)。在這篇文章中,我將帶你通過(guò)一些示例介紹一些非常常用的損失函數(shù)。這篇文章提到的一些參數(shù)細(xì)節(jié)都屬于tensorflow或者keras的實(shí)現(xiàn)細(xì)節(jié)。

損失函數(shù)的簡(jiǎn)要介紹

損失函數(shù)有助于優(yōu)化神經(jīng)網(wǎng)絡(luò)的參數(shù)。我們的目標(biāo)是通過(guò)優(yōu)化神經(jīng)網(wǎng)絡(luò)的參數(shù)(權(quán)重)來(lái)最大程度地減少神經(jīng)網(wǎng)絡(luò)的損失。通過(guò)神經(jīng)網(wǎng)絡(luò)將目標(biāo)(實(shí)際)值與預(yù)測(cè)值進(jìn)行匹配,再經(jīng)過(guò)損失函數(shù)就可以計(jì)算出損失。然后,我們使用梯度下降法來(lái)優(yōu)化網(wǎng)絡(luò)權(quán)重,以使損失最小化。這就是我們訓(xùn)練神經(jīng)網(wǎng)絡(luò)的方式。

均方誤差

當(dāng)你執(zhí)行回歸任務(wù)時(shí),可以選擇該損失函數(shù)。顧名思義,這種損失是通過(guò)計(jì)算實(shí)際(目標(biāo))值和預(yù)測(cè)值之間的平方差的平均值來(lái)計(jì)算的。

例如,你有一個(gè)神經(jīng)網(wǎng)絡(luò),通過(guò)該網(wǎng)絡(luò)可以獲取一些與房屋有關(guān)的數(shù)據(jù)并預(yù)測(cè)其價(jià)格。在這種情況下,你可以使用MSE(均方誤差)損失。基本上,在輸出為實(shí)數(shù)的情況下,應(yīng)使用此損失函數(shù)。

二元交叉熵

當(dāng)你執(zhí)行二元分類任務(wù)時(shí),可以選擇該損失函數(shù)。如果你使用BCE(二元交叉熵)損失函數(shù),則只需一個(gè)輸出節(jié)點(diǎn)即可將數(shù)據(jù)分為兩類。輸出值應(yīng)通過(guò)sigmoid激活函數(shù),以便輸出在(0-1)范圍內(nèi)。

例如,你有一個(gè)神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)獲取與大氣有關(guān)的數(shù)據(jù)并預(yù)測(cè)是否會(huì)下雨。如果輸出大于0.5,則網(wǎng)絡(luò)將其分類為會(huì)下雨;如果輸出小于0.5,則網(wǎng)絡(luò)將其分類為不會(huì)下雨。即概率得分值越大,下雨的機(jī)會(huì)越大。

訓(xùn)練網(wǎng)絡(luò)時(shí),如果標(biāo)簽是下雨,則輸入網(wǎng)絡(luò)的目標(biāo)值應(yīng)為1,否則為0。

重要的一點(diǎn)是,如果你使用BCE損失函數(shù),則節(jié)點(diǎn)的輸出應(yīng)介于(0-1)之間。這意味著你必須在最終輸出中使用sigmoid激活函數(shù)。因?yàn)閟igmoid函數(shù)可以把任何實(shí)數(shù)值轉(zhuǎn)換(0–1)的范圍。(也就是輸出概率值)

如果你不想在最后一層上顯示使用sigmoid激活函數(shù),你可以在損失函數(shù)的參數(shù)上設(shè)置from logits為true,它會(huì)在內(nèi)部調(diào)用Sigmoid函數(shù)應(yīng)用到輸出值。

多分類交叉熵

當(dāng)你執(zhí)行多類分類任務(wù)時(shí),可以選擇該損失函數(shù)。如果使用CCE(多分類交叉熵)損失函數(shù),則輸出節(jié)點(diǎn)的數(shù)量必須與這些類相同。最后一層的輸出應(yīng)該通過(guò)softmax激活函數(shù),以便每個(gè)節(jié)點(diǎn)輸出介于(0-1)之間的概率值。

例如,你有一個(gè)神經(jīng)網(wǎng)絡(luò),它讀取圖像并將其分類為貓或狗。如果貓節(jié)點(diǎn)具有高概率得分,則將圖像分類為貓,否則分類為狗。基本上,如果某個(gè)類別節(jié)點(diǎn)具有最高的概率得分,圖像都將被分類為該類別。

為了在訓(xùn)練時(shí)提供目標(biāo)值,你必須對(duì)它們進(jìn)行一次one-hot編碼。如果圖像是貓,則目標(biāo)向量將為(1,0),如果圖像是狗,則目標(biāo)向量將為(0,1)。基本上,目標(biāo)向量的大小將與類的數(shù)目相同,并且對(duì)應(yīng)于實(shí)際類的索引位置將為1,所有其他的位置都為零。

如果你不想在最后一層上顯示使用softmax激活函數(shù),你可以在損失函數(shù)的參數(shù)上設(shè)置from logits為true,它會(huì)在內(nèi)部調(diào)用softmax函數(shù)應(yīng)用到輸出值。與上述情況相同。

稀疏多分類交叉熵

該損失函數(shù)幾乎與多分類交叉熵相同,只是有一點(diǎn)小更改。

使用SCCE(稀疏多分類交叉熵)損失函數(shù)時(shí),不需要one-hot形式的目標(biāo)向量。例如如果目標(biāo)圖像是貓,則只需傳遞0,否則傳遞1。基本上,無(wú)論哪個(gè)類,你都只需傳遞該類的索引。

這些是最重要的損失函數(shù)。訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),可能會(huì)使用這些損失函數(shù)之一。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【每天學(xué)點(diǎn)AI】前向傳播、損失函數(shù)、反向傳播

    在深度學(xué)習(xí)的領(lǐng)域中,前向傳播、反向傳播和損失函數(shù)是構(gòu)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的三個(gè)核心概念。今天,小編將通過(guò)一個(gè)簡(jiǎn)單的實(shí)例,解釋這三個(gè)概念,并展示它們的作用。前向傳播:神經(jīng)網(wǎng)絡(luò)的“思考”過(guò)程前向傳播
    的頭像 發(fā)表于 11-15 10:32 ?678次閱讀
    【每天學(xué)點(diǎn)AI】前向傳播、<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>、反向傳播

    RNN的損失函數(shù)與優(yōu)化算法解析

    RNN的損失函數(shù) RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))在處理序列數(shù)據(jù)的過(guò)程中,損失函數(shù)(Loss Function)扮演著重要的角色,它可以測(cè)量模型在訓(xùn)練中的表現(xiàn),并推動(dòng)模型朝著正確的方向?qū)W習(xí)。RN
    的頭像 發(fā)表于 11-15 10:16 ?439次閱讀

    SUMIF函數(shù)與SUMIFS函數(shù)的區(qū)別

    SUMIF函數(shù)和SUMIFS函數(shù)都是Excel中用于條件求和的函數(shù),它們可以幫助用戶根據(jù)特定的條件對(duì)數(shù)據(jù)進(jìn)行求和。盡管它們的基本功能相似,但在使用場(chǎng)景和功能上存在一些差異。以下是對(duì)這兩個(gè)函數(shù)
    的頭像 發(fā)表于 10-30 09:51 ?1163次閱讀

    語(yǔ)義分割25種損失函數(shù)綜述和展望

    本綜述提供了對(duì)25種用于圖像分割的損失函數(shù)的全面且統(tǒng)一的回顧。我們提供了一種新穎的分類法,并詳細(xì)審查了這些損失函數(shù)如何在圖像分割中被定制和利用,強(qiáng)調(diào)了它們的重要特征和應(yīng)用,并進(jìn)行了系統(tǒng)
    的頭像 發(fā)表于 10-22 08:04 ?609次閱讀
    語(yǔ)義分割25種<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>綜述和展望

    怎么解決級(jí)聯(lián)損失的那6dB的增益呢?

    怎么解決級(jí)聯(lián)損失的那6dB的增益呢?還有就是功耗太大,容易燒芯片。。。怎么解決呢
    發(fā)表于 09-06 07:33

    卷積神經(jīng)網(wǎng)絡(luò)激活函數(shù)的作用

    起著至關(guān)重要的作用,它們可以增加網(wǎng)絡(luò)的非線性,提高網(wǎng)絡(luò)的表達(dá)能力,使網(wǎng)絡(luò)能夠?qū)W習(xí)到更加復(fù)雜的特征。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的作用、常見激活函數(shù)及其特點(diǎn),以及激活函數(shù)在網(wǎng)絡(luò)優(yōu)
    的頭像 發(fā)表于 07-03 09:18 ?1117次閱讀

    函數(shù)信號(hào)發(fā)生器怎么調(diào)頻率

    函數(shù)信號(hào)發(fā)生器是一種常用的電子測(cè)試設(shè)備,它能夠產(chǎn)生各種波形、頻率和幅度的信號(hào),廣泛應(yīng)用于科研、教學(xué)、生產(chǎn)和維修等領(lǐng)域。在使用函數(shù)信號(hào)發(fā)生器時(shí),調(diào)整頻率是其中一個(gè)非常重要的步驟。本文將詳細(xì)介紹
    的頭像 發(fā)表于 05-20 18:23 ?1653次閱讀

    函數(shù)信號(hào)發(fā)生器按鍵介紹

    函數(shù)信號(hào)發(fā)生器是電子測(cè)試領(lǐng)域中不可或缺的重要工具,它能夠模擬產(chǎn)生各種波形信號(hào),如正弦波、方波、三角波等,廣泛應(yīng)用于電路測(cè)試、信號(hào)模擬、科學(xué)研究等多個(gè)領(lǐng)域。函數(shù)信號(hào)發(fā)生器的按鍵設(shè)計(jì)是其功能實(shí)現(xiàn)的重要組成部分,本文將對(duì)函數(shù)信號(hào)發(fā)生器
    的頭像 發(fā)表于 05-15 16:14 ?1953次閱讀

    PyTorch中激活函數(shù)的全面概覽

    為了更清晰地學(xué)習(xí)Pytorch中的激活函數(shù),并對(duì)比它們之間的不同,這里對(duì)最新版本的Pytorch中的激活函數(shù)進(jìn)行了匯總,主要介紹激活函數(shù)的公式、圖像以及使用方法,具體細(xì)節(jié)可查看官方文檔
    的頭像 發(fā)表于 04-30 09:26 ?559次閱讀
    PyTorch中激活<b class='flag-5'>函數(shù)</b>的全面概覽

    回調(diào)函數(shù)(callback)是什么?回調(diào)函數(shù)的實(shí)現(xiàn)方法

    回調(diào)函數(shù)是一種特殊的函數(shù),它作為參數(shù)傳遞給另一個(gè)函數(shù),并在被調(diào)用函數(shù)執(zhí)行完畢后被調(diào)用。回調(diào)函數(shù)通常用于事件處理、異步編程和處理各種操作系統(tǒng)和
    發(fā)表于 03-12 11:46 ?2977次閱讀

    函數(shù)指針與回調(diào)函數(shù)的應(yīng)用實(shí)例

    通常我們說(shuō)的指針變量是指向一個(gè)整型、字符型或數(shù)組等變量,而函數(shù)指針是指向函數(shù)函數(shù)指針可以像一般函數(shù)一樣,用于調(diào)用函數(shù)、傳遞參數(shù)。
    的頭像 發(fā)表于 03-07 11:13 ?408次閱讀
    <b class='flag-5'>函數(shù)</b>指針與回調(diào)<b class='flag-5'>函數(shù)</b>的應(yīng)用實(shí)例

    典型環(huán)節(jié)的傳遞函數(shù)介紹

    電子發(fā)燒友網(wǎng)站提供《典型環(huán)節(jié)的傳遞函數(shù)介紹.pdf》資料免費(fèi)下載
    發(fā)表于 03-01 10:28 ?2次下載

    verilog function函數(shù)的用法

    Verilog 中被廣泛用于對(duì)電路進(jìn)行模塊化設(shè)計(jì),以簡(jiǎn)化和組織代碼。 本文將詳細(xì)介紹 Verilog 函數(shù)的用法,并探討函數(shù)在硬件設(shè)計(jì)中的重要性和實(shí)際應(yīng)用場(chǎng)景。 一. Verilog 函數(shù)
    的頭像 發(fā)表于 02-22 15:49 ?5776次閱讀

    對(duì)象檢測(cè)邊界框損失函數(shù)–從IOU到ProbIOU介紹

    目標(biāo)檢測(cè)損失函數(shù)的選擇在目標(biāo)檢測(cè)問(wèn)題建模中至關(guān)重要。通常,目標(biāo)檢測(cè)需要兩個(gè)損失函數(shù),一個(gè)用于對(duì)象分類,另一個(gè)用于邊界框回歸(BBR)。
    的頭像 發(fā)表于 01-24 10:50 ?2909次閱讀
    對(duì)象檢測(cè)邊界框<b class='flag-5'>損失</b><b class='flag-5'>函數(shù)</b>–從IOU到ProbIOU<b class='flag-5'>介紹</b>

    太陽(yáng)能電池封裝光學(xué)損失研究

    太陽(yáng)電池封裝成組件后,其實(shí)際功率通常會(huì)小于理論功率,稱之為功率損失或封裝損失
    的頭像 發(fā)表于 01-05 10:32 ?1342次閱讀
    太陽(yáng)能電池封裝光學(xué)<b class='flag-5'>損失</b>研究
    主站蜘蛛池模板: 菠萝菠萝蜜视频在线看1| 一边摸一边桶一边脱免费| 在线播放毛片| 国产麻豆精品传媒AV国产在线| 欧美深夜0000XXXX疯狂| 在线A亚洲老鸭窝天堂AV高清| 国产午夜免费不卡精品理论片| 日韩视频在线观看| 99热这里只有精品| 美女脱内衣裸身尿口露出来| 伊人yinren6综合网色狠狠| 国产亚洲精品福利视频| 桃隐社区最新最快地址| 成人在线观看视频免费| 女人爽到高潮嗷嗷叫视频| 做暖暖视频在线看片免费| 久久精品亚洲精品国产欧美| 亚洲欧美日韩另类精品一区二区三区| 国产精品成久久久久三级四虎| 色欲av蜜臀av高清| 成人AV无码一二二区视频免费看| 欧美人与禽ZOZO性伦交视频| 99国产精品欲AV蜜桃臀麻豆| 麻豆国产精品va在线观看约| 真实伦 乱| 久久学生精品国产自在拍| 伊人久久大香线蕉综合bd高清| 黄色三级网站在线观看| 亚洲精品国产字幕久久vr| 国产午夜福利100集发布| 贤妻良母电影日本| 国产精品免费一区二区三区视频| 四虎免费影院| 国产精品爽爽久久久久久蜜桃| 我要色色网| 国产精一品亚洲二区在线播放| 无人在线观看免费高清视频播放| 国产精品国产三级国产AV麻豆| 无套内射无矿码免费看黄| 国产午夜免费视频片夜色| 亚洲精品国产第一区第二区|