色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于集成學習的決策介紹(下)

jf_78858299 ? 來源:人工智能大講堂 ? 作者:阿澤 復旦大學 ? 2023-02-17 15:52 ? 次閱讀

4.2 細節

4.2.1 損失函數

Adaboost 模型是加法模型,學習算法為前向分步學習算法,損失函數為指數函數的分類問題。

加法模型:最終的強分類器是由若干個弱分類器加權平均得到的。

前向分布學習算法:算法是通過一輪輪的弱學習器學習,利用前一個弱學習器的結果來更新后一個弱學習器的訓練集權重。第 k 輪的強學習器為:

圖片

定義損失函數為 n 個樣本的指數損失函數:

圖片

利用前向分布學習算法的關系可以得到:

圖片

因為 圖片已知,所以令 圖片,隨著每一輪迭代而將這個式子帶入損失函數,損失函數轉化為:

圖片

我們求 圖片 ,可以得到:

圖片

圖片帶入損失函數,并對圖片求導,使其等于 0,則就得到了:

圖片

其中, 圖片即為我們前面的分類誤差率。

圖片

最后看樣本權重的更新。利用 圖片圖片,即可得:圖片

這樣就得到了樣本權重更新公式。

4.2.2 正則化

為了防止 Adaboost 過擬合,我們通常也會加入正則化項,這個正則化項我們通常稱為步長(learning rate)。對于前面的弱學習器的迭代圖片

加上正則化項 圖片 我們有:

圖片

圖片 的取值范圍為 0<圖片≤1 。對于同樣的訓練集學習效果,較小的 圖片 意味著我們需要更多的弱學習器的迭代次數。通常我們用步長和迭代最大次數一起來決定算法的擬合效果。

4.3 優缺點

4.3.1 優點

  1. 分類精度高;
  2. 可以用各種回歸分類模型來構建弱學習器,非常靈活;
  3. 不容易發生過擬合。

4.3.2 缺點

  1. 對異常點敏感,異常點會獲得較高權重。

5. GBDT

GBDT(Gradient Boosting Decision Tree)是一種迭代的決策樹算法,該算法由多棵決策樹組成,從名字中我們可以看出來它是屬于 Boosting 策略。GBDT 是被公認的泛化能力較強的算法。

5.1 思想

GBDT 由三個概念組成:Regression Decision Tree(即 DT)、Gradient Boosting(即 GB),和 Shrinkage(一個重要演變)

5.1.1 回歸樹(Regression Decision Tree)

如果認為 GBDT 由很多分類樹那就大錯特錯了(雖然調整后也可以分類)。對于分類樹而言,其值加減無意義(如性別),而對于回歸樹而言,其值加減才是有意義的(如說年齡)。GBDT 的核心在于累加所有樹的結果作為最終結果,所以 GBDT 中的樹都是回歸樹,不是分類樹,這一點相當重要。

回歸樹在分枝時會窮舉每一個特征的每個閾值以找到最好的分割點,衡量標準是最小化均方誤差。

5.1.2 梯度迭代(Gradient Boosting)

上面說到 GBDT 的核心在于累加所有樹的結果作為最終結果,GBDT 的每一棵樹都是以之前樹得到的殘差來更新目標值,這樣每一棵樹的值加起來即為 GBDT 的預測值。

模型的預測值可以表示為:

圖片

圖片為基模型與其權重的乘積,模型的訓練目標是使預測值 圖片逼近真實值 y,也就是說要讓每個基模型的預測值逼近各自要預測的部分真實值。由于要同時考慮所有基模型,導致了整體模型的訓練變成了一個非常復雜的問題。所以研究者們想到了一個貪心的解決手段:每次只訓練一個基模型。那么,現在改寫整體模型為迭代式:

圖片

這樣一來,每一輪迭代中,只要集中解決一個基模型的訓練問題:使 圖片逼近真實值 y 。

舉個例子:比如說 A 用戶年齡 20 歲,第一棵樹預測 12 歲,那么殘差就是 8,第二棵樹用 8 來學習,假設其預測為 5,那么其殘差即為 3,如此繼續學習即可。

那么 Gradient 從何體現?其實很簡單,其殘差其實是最小均方損失函數關于預測值的反向梯度(劃重點):

圖片

也就是說,預測值和實際值的殘差與損失函數的負梯度相同。

但要注意,基于殘差 GBDT 容易對異常值敏感,舉例:

圖片

很明顯后續的模型會對第 4 個值關注過多,這不是一種好的現象,所以一般回歸類的損失函數會用絕對損失或者 Huber 損失函數來代替平方損失函數。

圖片

GBDT 的 Boosting 不同于 Adaboost 的 Boosting,GBDT 的每一步殘差計算其實變相地增大了被分錯樣本的權重,而對與分對樣本的權重趨于 0,這樣后面的樹就能專注于那些被分錯的樣本。

5.1.3 縮減(Shrinkage)

Shrinkage 的思想認為,每走一小步逐漸逼近結果的效果要比每次邁一大步很快逼近結果的方式更容易避免過擬合。即它并不是完全信任每一棵殘差樹。圖片

Shrinkage 不直接用殘差修復誤差,而是只修復一點點,把大步切成小步。本質上 Shrinkage 為每棵樹設置了一個 weight,累加時要乘以這個 weight,當 weight 降低時,基模型數會配合增大。

5.2 優缺點

5.2.1 優點

  1. 可以自動進行特征組合,擬合非線性數據;
  2. 可以靈活處理各種類型的數據。

5.2.2 缺點

  1. 對異常點敏感。

5.3 與 Adaboost 的對比

5.3.1 相同:

  1. 都是 Boosting 家族成員,使用弱分類器;
  2. 都使用前向分布算法;

5.3.2 不同:

  1. 迭代思路不同:Adaboost 是通過提升錯分數據點的權重來彌補模型的不足(利用錯分樣本),而 GBDT 是通過算梯度來彌補模型的不足(利用殘差);
  2. 損失函數不同:AdaBoost 采用的是指數損失,GBDT 使用的是絕對損失或者 Huber 損失函數;

6. 參考

  1. 機器學習算法中 GBDT 與 Adaboost 的區別與聯系是什么? - Frankenstein 的回答 - 知乎

  2. 為什么說bagging是減少variance,而boosting是減少bias

  3. Ensemble Learning - 周志華

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關推薦

    機器學習中常用的決策樹算法技術解析

    決策樹是最重要的機器學習算法之一,其可被用于分類和回歸問題。本文中,我們將介紹分類部分。
    發表于 10-12 16:39 ?1306次閱讀
    機器<b class='flag-5'>學習</b>中常用的<b class='flag-5'>決策</b>樹算法技術解析

    不可錯過 | 集成學習入門精講

    各方面表現都很好的模型。但往往我們只能得到一些弱監督模型(在某些方面表現比較好),集成學習通常就是結合多個簡單的弱機器學習算法,去做更準確的決策。用俗語來講,就是集眾人智慧去做相應的
    發表于 06-06 10:11

    決策樹在機器學習的理論學習與實踐

    決策樹在機器學習的理論學習與實踐
    發表于 09-20 12:48

    機器學習決策介紹

    機器學習——決策樹算法分析
    發表于 04-02 11:48

    介紹支持向量機與決策集成等模型的應用

    本文主要介紹支持向量機、k近鄰、樸素貝葉斯分類 、決策樹、決策集成等模型的應用。講解了支持向量機SVM線性與非線性模型的適用環境,并對核函數技巧作出深入的分析,對線性Linear核函
    發表于 09-01 06:57

    決策樹的生成資料

    在本文中,我們將討論一種監督式學習算法。最新一代意法半導體 MEMS 傳感器內置一個基于決策樹分類器的機器學習核心(MLC)。這些產品很容易通過后綴中的 X 來識別(例如,LSM6DSOX)。這種
    發表于 09-08 06:50

    決策樹的介紹

    關于決策樹的介紹,是一些很基礎的介紹,不過是英文介紹
    發表于 09-18 14:55 ?0次下載

    機器學習決策滲透著偏見,能把決策權完全交給機器嗎?

    隨著人工智能的發展,人類將會把越來越多的決策權交給機器。但是,從目前的一些事例看,基于機器學習決策并非那么公正完美,相反,那些決策也滲透著偏見。近期的一份研究報告中,Google的一
    發表于 05-11 10:33 ?1478次閱讀

    決策樹的原理和決策樹構建的準備工作,機器學習決策樹的原理

    希望通過所給的訓練數據學習一個貸款申請的決策樹,用于對未來的貸款申請進行分類,即當新的客戶提出貸款申請時,根據申請人的特征利用決策樹決定是否批準貸款申請。
    的頭像 發表于 10-08 14:26 ?5999次閱讀

    決策樹的基本概念/學習步驟/算法/優缺點

    本文將介紹決策樹的基本概念、決策學習的3個步驟、3種典型的決策樹算法、決策樹的10個優缺點。
    發表于 01-27 10:03 ?2625次閱讀
    <b class='flag-5'>決策</b>樹的基本概念/<b class='flag-5'>學習</b>步驟/算法/優缺點

    為什么要使用集成學習 機器學習建模的偏差和方差

    我們在生活中做出的許多決定都是基于其他人的意見,而通常情況由一群人做出的決策比由該群體中的任何一個成員做出的決策會產生更好的結果,這被稱為群體的智慧。集成
    的頭像 發表于 08-14 09:52 ?2994次閱讀
    為什么要使用<b class='flag-5'>集成</b><b class='flag-5'>學習</b> 機器<b class='flag-5'>學習</b>建模的偏差和方差

    強化學習與智能駕駛決策規劃

    本文介紹了強化學習與智能駕駛決策規劃。智能駕駛中的決策規劃模塊負責將感知模塊所得到的環境信息轉化成具體的駕駛策略,從而指引車輛安全、穩定的行駛。真實的駕駛場景往往具有高度的復雜性及不確
    的頭像 發表于 02-08 14:05 ?1849次閱讀

    基于集成學習決策介紹(上)

    本文主要介紹基于集成學習決策樹,其主要通過不同學習框架生產基學習器,并綜合所有基
    的頭像 發表于 02-17 15:52 ?741次閱讀
    基于<b class='flag-5'>集成</b><b class='flag-5'>學習</b>的<b class='flag-5'>決策</b><b class='flag-5'>介紹</b>(上)

    基于 Boosting 框架的主流集成算法介紹

    本文是決策樹的第三篇,主要介紹基于 Boosting 框架的主流集成算法,包括 XGBoost 和 LightGBM。 XGBoost
    的頭像 發表于 02-17 15:58 ?2804次閱讀
    基于 Boosting 框架的主流<b class='flag-5'>集成</b>算法<b class='flag-5'>介紹</b>(<b class='flag-5'>下</b>)

    什么是集成學習算法-1

    同質集成:只包含同種類型算法,比如決策集成全是決策樹,異質集成:包含不同種類型算法,比如同時包含神經網絡和
    的頭像 發表于 02-24 16:37 ?1206次閱讀
    什么是<b class='flag-5'>集成</b><b class='flag-5'>學習</b>算法-1
    主站蜘蛛池模板: 亚洲黄色在线| 日韩免费一区| 久久天天综合| 国产中文在线| 国产精品1卡二卡三卡四卡乱码| 91国偷自产一区二区三区 | 精品性影院一区二区三区内射| 国产精品日本不卡一区二区| 边摸边吃奶玩乳尖视频| av天堂电影网| 最近中文字幕2018MV高清在线| 亚洲 欧美 日韩 精品 自拍| 欧美一级做a爰片免费| 久久免费精彩视频| 国产伦精品一区二区三区| 赤兔CHINESE最新男18GUY | 日本黄色官网| 年轻的搜子8中字在线观看| 久久精品亚洲牛牛影视| 果冻传媒在线观看资源七夕| 国产精彩视频在线| 丰满人妻按磨HD| 国产成人小视频在线观看| 国产精品亚洲专一区二区三区| 国产精品线路一线路二| 国模啪啪久久久久久久| 久久精品中文字幕有码日本| 快播电影官方网站| 暖暖在线观看播放视频| 琪琪伦伦影院理论片| 色综合久久综合网观看| 消息称老熟妇乱视频一区二区| 亚洲综合国产精品| 97国产在线播放| 成人五级毛片免费播放| 国产强奷伦奷片| 久久99视频免费| 欧美日本高清动作片www网站| 日本午夜福利无码高清| 亚洲 日韩 在线 国产 视频| 一品探花论坛|