色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

XGBoost原理概述 XGBoost和GBDT的區(qū)別

WpOh_rgznai100 ? 來(lái)源:網(wǎng)絡(luò)整理 ? 2019-07-16 18:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者 |梁云1991

一、XGBoost和GBDT

xgboost是一種集成學(xué)習(xí)算法,屬于3類(lèi)常用的集成方法(bagging,boosting,stacking)中的boosting算法類(lèi)別。它是一個(gè)加法模型,基模型一般選擇樹(shù)模型,但也可以選擇其它類(lèi)型的模型如邏輯回歸等。

xgboost屬于梯度提升樹(shù)(GBDT)模型這個(gè)范疇,GBDT的基本想法是讓新的基模型(GBDT以CART分類(lèi)回歸樹(shù)為基模型)去擬合前面模型的偏差,從而不斷將加法模型的偏差降低。相比于經(jīng)典的GBDT,xgboost做了一些改進(jìn),從而在效果和性能上有明顯的提升(劃重點(diǎn)面試常考)。第一,GBDT將目標(biāo)函數(shù)泰勒展開(kāi)到一階,而xgboost將目標(biāo)函數(shù)泰勒展開(kāi)到了二階。保留了更多有關(guān)目標(biāo)函數(shù)的信息,對(duì)提升效果有幫助。第二,GBDT是給新的基模型尋找新的擬合標(biāo)簽(前面加法模型的負(fù)梯度),而xgboost是給新的基模型尋找新的目標(biāo)函數(shù)(目標(biāo)函數(shù)關(guān)于新的基模型的二階泰勒展開(kāi))。第三,xgboost加入了和葉子權(quán)重的L2正則化項(xiàng),因而有利于模型獲得更低的方差。第四,xgboost增加了自動(dòng)處理缺失值特征的策略。通過(guò)把帶缺失值樣本分別劃分到左子樹(shù)或者右子樹(shù),比較兩種方案下目標(biāo)函數(shù)的優(yōu)劣,從而自動(dòng)對(duì)有缺失值的樣本進(jìn)行劃分,無(wú)需對(duì)缺失特征進(jìn)行填充預(yù)處理。

此外,xgboost還支持候選分位點(diǎn)切割,特征并行等,可以提升性能。

二、XGBoost原理概述

下面從假設(shè)空間,目標(biāo)函數(shù),優(yōu)化算法3個(gè)角度對(duì)xgboost的原理進(jìn)行概括性的介紹。

1,假設(shè)空間

2,目標(biāo)函數(shù)

3,優(yōu)化算法

基本思想:貪心法,逐棵樹(shù)進(jìn)行學(xué)習(xí),每棵樹(shù)擬合之前模型的偏差。

三、第t棵樹(shù)學(xué)什么?

要完成構(gòu)建xgboost模型,我們需要確定以下一些事情。

1,如何boost? 如果已經(jīng)得到了前面t-1棵樹(shù)構(gòu)成的加法模型,如何確定第t棵樹(shù)的學(xué)習(xí)目標(biāo)?

2,如何生成樹(shù)?已知第t棵樹(shù)的學(xué)習(xí)目標(biāo)的前提下,如何學(xué)習(xí)這棵樹(shù)?具體又包括是否進(jìn)行分裂?選擇哪個(gè)特征進(jìn)行分裂?選擇什么分裂點(diǎn)位?分裂的葉子節(jié)點(diǎn)如何取值?

我們首先考慮如何boost的問(wèn)題,順便解決分裂的葉子節(jié)點(diǎn)如何取值的問(wèn)題。

四、如何生成第t棵樹(shù)?

xgboost采用二叉樹(shù),開(kāi)始的時(shí)候,全部樣本都在一個(gè)葉子節(jié)點(diǎn)上。然后葉子節(jié)點(diǎn)不斷通過(guò)二分裂,逐漸生成一棵樹(shù)。

xgboost使用levelwise的生成策略,即每次對(duì)同一層級(jí)的全部葉子節(jié)點(diǎn)嘗試進(jìn)行分裂。對(duì)葉子節(jié)點(diǎn)分裂生成樹(shù)的過(guò)程有幾個(gè)基本的問(wèn)題:是否要進(jìn)行分裂?選擇哪個(gè)特征進(jìn)行分裂?在特征的什么點(diǎn)位進(jìn)行分裂?以及分裂后新的葉子上取什么值?葉子節(jié)點(diǎn)的取值問(wèn)題前面已經(jīng)解決了。我們重點(diǎn)討論幾個(gè)剩下的問(wèn)題。

1,是否要進(jìn)行分裂?

根據(jù)樹(shù)的剪枝策略的不同,這個(gè)問(wèn)題有兩種不同的處理。如果是預(yù)剪枝策略,那么只有當(dāng)存在某種分裂方式使得分裂后目標(biāo)函數(shù)發(fā)生下降,才會(huì)進(jìn)行分裂。但如果是后剪枝策略,則會(huì)無(wú)條件進(jìn)行分裂,等樹(shù)生成完成后,再?gòu)纳隙聶z查樹(shù)的各個(gè)分枝是否對(duì)目標(biāo)函數(shù)下降產(chǎn)生正向貢獻(xiàn)從而進(jìn)行剪枝。xgboost采用預(yù)剪枝策略,只有分裂后的增益大于0才會(huì)進(jìn)行分裂。

2,選擇什么特征進(jìn)行分裂?

xgboost采用特征并行的方法進(jìn)行計(jì)算選擇要分裂的特征,即用多個(gè)線程,嘗試把各個(gè)特征都作為分裂的特征,找到各個(gè)特征的最優(yōu)分割點(diǎn),計(jì)算根據(jù)它們分裂后產(chǎn)生的增益,選擇增益最大的那個(gè)特征作為分裂的特征。

3,選擇什么分裂點(diǎn)位?

xgboost選擇某個(gè)特征的分裂點(diǎn)位的方法有兩種,一種是全局掃描法,另一種是候選分位點(diǎn)法。

全局掃描法將所有樣本該特征的取值按從小到大排列,將所有可能的分裂位置都試一遍,找到其中增益最大的那個(gè)分裂點(diǎn),其計(jì)算復(fù)雜度和葉子節(jié)點(diǎn)上的樣本特征不同的取值個(gè)數(shù)成正比。

而候選分位點(diǎn)法是一種近似算法,僅選擇常數(shù)個(gè)(如256個(gè))候選分裂位置,然后從候選分裂位置中找出最優(yōu)的那個(gè)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • GBDT
    +關(guān)注

    關(guān)注

    0

    文章

    13

    瀏覽量

    4072
  • XGBoost
    +關(guān)注

    關(guān)注

    0

    文章

    16

    瀏覽量

    2390

原文標(biāo)題:30分鐘看懂XGBoost的基本原理

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 0人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    PyInstaller打包xgboost算法包等可能出現(xiàn)問(wèn)題是什么

    PyInstaller 打包 xgboost算法包等可能出現(xiàn)問(wèn)題
    發(fā)表于 07-16 14:35

    基于xgboost的風(fēng)力發(fā)電機(jī)葉片結(jié)冰分類(lèi)預(yù)測(cè) 精選資料分享

    xgboost中文叫做極致梯度提升模型,官方文檔鏈接:https://xgboost.readthedocs.io/en/latest/tutorials/model.html2018年9月6日筆記
    發(fā)表于 07-12 06:58

    基于xgboost的風(fēng)力發(fā)電機(jī)葉片結(jié)冰分類(lèi)預(yù)測(cè) 精選資料下載

    xgboost中文叫做極致梯度提升模型,官方文檔鏈接:https://xgboost.readthedocs.io/en/latest/tutorials/model.html2018年9月6日筆記
    發(fā)表于 07-12 06:44

    通過(guò)學(xué)習(xí)PPT地址和xgboost導(dǎo)讀和實(shí)戰(zhàn)地址來(lái)對(duì)xgboost原理和應(yīng)用分析

    關(guān)于xgboost的原理網(wǎng)絡(luò)上的資源很少,大多數(shù)還停留在應(yīng)用層面,本文通過(guò)學(xué)習(xí)陳天奇博士的PPT和xgboost導(dǎo)讀和實(shí)戰(zhàn)地址,希望對(duì)xgboost原理進(jìn)行深入理解。
    的頭像 發(fā)表于 01-02 10:18 ?6830次閱讀
    通過(guò)學(xué)習(xí)PPT地址和<b class='flag-5'>xgboost</b>導(dǎo)讀和實(shí)戰(zhàn)地址來(lái)對(duì)<b class='flag-5'>xgboost</b>原理和應(yīng)用分析

    面試中出現(xiàn)有關(guān)Xgboost總結(jié)

    介紹 Xgboost是GB算法的高效實(shí)現(xiàn),xgboost中的基學(xué)習(xí)器除了可以是CART(gbtree)也可以是線性分類(lèi)器(gblinear)
    發(fā)表于 03-20 16:48 ?4603次閱讀

    基于Xgboost算法的高錳鋼表面粗糙度預(yù)測(cè)

    基于Xgboost算法的高錳鋼表面粗糙度預(yù)測(cè)
    發(fā)表于 06-19 15:09 ?14次下載

    在幾個(gè)AWS實(shí)例上運(yùn)行的XGBoost和LightGBM的性能比較

    XGBoost(eXtreme Gradient Boosting)是一個(gè)在Gradient Boosting Decision Tree(GBDT)框架下的開(kāi)源機(jī)器學(xué)習(xí)庫(kù)(https://github.com/dmlc/xgboost
    的頭像 發(fā)表于 10-24 10:24 ?1899次閱讀

    XGBoost超參數(shù)調(diào)優(yōu)指南

    對(duì)于XGBoost來(lái)說(shuō),默認(rèn)的超參數(shù)是可以正常運(yùn)行的,但是如果你想獲得最佳的效果,那么就需要自行調(diào)整一些超參數(shù)來(lái)匹配你的數(shù)據(jù),以下參數(shù)對(duì)于XGBoost非常重要
    的頭像 發(fā)表于 06-15 18:15 ?1089次閱讀
    <b class='flag-5'>XGBoost</b>超參數(shù)調(diào)優(yōu)指南

    XGBoost中無(wú)需手動(dòng)編碼的分類(lèi)特征

    XGBoost 中無(wú)需手動(dòng)編碼的分類(lèi)特征
    的頭像 發(fā)表于 07-05 16:30 ?993次閱讀

    XGBoost 2.0介紹

    XGBoost是處理不同類(lèi)型表格數(shù)據(jù)的最著名的算法,LightGBM 和Catboost也是為了修改他的缺陷而發(fā)布的。近日XGBoost發(fā)布了新的2.0版,本文除了介紹讓XGBoost的完整歷史以外
    的頭像 發(fā)表于 11-03 10:12 ?786次閱讀
    <b class='flag-5'>XGBoost</b> 2.0介紹

    xgboost超參數(shù)調(diào)優(yōu)技巧 xgboost在圖像分類(lèi)中的應(yīng)用

    一、XGBoost超參數(shù)調(diào)優(yōu)技巧 XGBoost(eXtreme Gradient Boosting)是一種基于梯度提升決策樹(shù)(GBDT)的高效梯度提升框架,在機(jī)器學(xué)習(xí)競(jìng)賽和實(shí)際業(yè)務(wù)應(yīng)用中取得了卓越
    的頭像 發(fā)表于 01-31 15:16 ?1283次閱讀

    xgboost在圖像分類(lèi)中的應(yīng)用

    XGBoost(eXtreme Gradient Boosting)是一種高效的機(jī)器學(xué)習(xí)算法,它基于梯度提升框架,通過(guò)構(gòu)建多個(gè)弱學(xué)習(xí)器(通常是決策樹(shù))來(lái)提高模型的性能。XGBoost因其出色的性能
    的頭像 發(fā)表于 01-19 11:16 ?1044次閱讀

    xgboost的并行計(jì)算原理

    在大數(shù)據(jù)時(shí)代,機(jī)器學(xué)習(xí)算法需要處理的數(shù)據(jù)量日益增長(zhǎng)。為了提高數(shù)據(jù)處理的效率,許多算法都開(kāi)始支持并行計(jì)算。XGBoost作為一種高效的梯度提升樹(shù)算法,其并行計(jì)算能力是其受歡迎的原因
    的頭像 發(fā)表于 01-19 11:17 ?1029次閱讀

    xgboost與LightGBM的優(yōu)勢(shì)對(duì)比

    在機(jī)器學(xué)習(xí)領(lǐng)域,集成學(xué)習(xí)算法因其出色的性能和泛化能力而受到廣泛關(guān)注。其中,XGBoost和LightGBM是兩種非常流行的梯度提升框架。 1. 算法基礎(chǔ) XGBoost(eXtreme
    的頭像 發(fā)表于 01-19 11:18 ?1327次閱讀

    使用Python實(shí)現(xiàn)xgboost教程

    使用Python實(shí)現(xiàn)XGBoost模型通常涉及以下幾個(gè)步驟:數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、模型評(píng)估和模型預(yù)測(cè)。以下是一個(gè)詳細(xì)的教程,指導(dǎo)你如何在Python中使用XGBoost。 1. 安裝XGBoost
    的頭像 發(fā)表于 01-19 11:21 ?1403次閱讀
    主站蜘蛛池模板: 国产成人免费 | 成年女人色毛片免费 | 亚洲视频网站欧美视频网站 | 日本阿v在线资源无码免费 日本阿v片在线播放免费 | 国产成人在线视频观看 | 人禽l交视频在线播放 视频 | 视频一区国产在线二区 | 亞洲人妻AV無碼在線視頻 | 久久国产欧美 | 久久久97丨国产人妻熟女 | 亚洲免费中文 | 中文无码乱人伦中文视频播放 | 夫外出被公侵犯日本电影 | 91麻豆国产精品91久久久 | 亚洲 欧美 国产 综合不卡 | 亚洲成人免费在线观看 | 99久久久久精品国产免费麻豆 | 亚洲AV噜噜狠狠网址蜜桃尤物 | 被黑人掹躁10次高潮 | 免费人成网站在线观看10分钟 | 日韩欧美成人免费中文字幕 | 久久精品123 | 区久久AAA片69亚洲 | 国产AV天堂一区二区三区 | 龙泽罗拉av| 色琪琪无码成人AV视频 | 国产三级在线免费 | 久青草国产在线视频亚瑟影视 | 久久久久琪琪精品色 | 免费国产精品视频 | 国内九一激情白浆发布 | mdapptv麻豆下载 | 中文文字幕文字幕亚洲色 | 她也色在线视频站 | 久草青青在线 | 久久国语精品 | 色欲AV色欲AV久久麻豆 | 99久久蜜臀亚洲AV无码精品 | 日韩中文无线码在线视频 | 99视频精品国产在线视频 | 亚洲AV色香蕉一区二区9255 |

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品