色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

機器學習模型的集成方法總結:Bagging, Boosting, Stacking, Voting, Blending

穎脈Imgtec ? 2022-10-19 11:29 ? 次閱讀

來源:DeepHub IMBA

作者:Abhay Parashar


機器學習人工智能的一個分支領域,致力于構建自動學習和自適應的系統,它利用統計模型來可視化、分析和預測數據。一個通用的機器學習模型包括一個數據集(用于訓練模型)和一個算法(從數據學習)。但是有些模型的準確性通常很低產生的結果也不太準確,克服這個問題的最簡單的解決方案之一是在機器學習模型上使用集成學習。

491d77e0-4f2b-11ed-b116-dac502259ad0.png

集成學習是一種元方法,通過組合多個機器學習模型來產生一個優化的模型,從而提高模型的性能。集成學習可以很容易地減少過擬合,避免模型在訓練時表現更好,而在測試時不能產生良好的結果。

總結起來,集成學習有以下的優點:

  • 增加模型的性能
  • 減少過擬合
  • 降低方差
  • 與單個模型相比,提供更高的預測精度。
  • 可以處理線性和非線性數據。

集成技術可以用來解決回歸和分類問題

下面我們將介紹各種集成學習的方法:

Voting

Voting是一種集成學習,它將來自多個機器學習模型的預測結合起來產生結果。在整個數據集上訓練多個基礎模型來進行預測。每個模型預測被認為是一個“投票”。得到多數選票的預測將被選為最終預測。

4937d0f4-4f2b-11ed-b116-dac502259ad0.png

有兩種類型的投票用于匯總基礎預測-硬投票和軟投票。

494ccacc-4f2b-11ed-b116-dac502259ad0.png

硬投票選擇投票數最高的預測作為最終預測,而軟投票將每個模型中每個類的概率結合起來,選擇概率最高的類作為最終預測。

在回歸問題中,它的工作方式有些不同,因為我們不是尋找頻率最高的類,而是采用每個模型的預測并計算它們的平均值,從而得出最終的預測。

 from sklearn.ensemble import VotingClassifier
 
 ## Base Models
 from sklearn.tree import DecisionTreeClassifier
 from sklearn.linear_model import LogisticRegression
 from sklearn.naive_bayes import GaussianNB
 from sklearn.neighbors import KNeighborsClassifier
 from sklearn.svm import SVC
 
 
 ensemble_voting = VotingClassifier(
    estimators = [('dtc',DecisionTreeClassifier(random_state=42)),
                  ('lr', LogisticRegression()),
                  ('gnb', GaussianNB()),
                  ('knn',KNeighborsClassifier()),
                  ('svc',SVC())],
    voting='hard')
 ensemble_voting.fit(X_train,y_train)


Bagging

Bagging是采用幾個弱機器學習模型,并將它們的預測聚合在一起,以產生最佳的預測。它基于bootstrap aggregation,bootstrap 是一種使用替換方法從集合中抽取隨機樣本的抽樣技術。aggregation則是利用將幾個預測結合起來產生最終預測的過程。

隨機森林是利用Bagging的最著名和最常用的模型之一。它由大量的決策樹組成,這些決策樹作為一個整體運行。它使用Bagging和特征隨機性的概念來創建每棵獨立的樹。每棵決策樹都是從數據中隨機抽取樣本進行訓練。在隨機森林中,我們最終得到的樹不僅接受不同數據集的訓練,而且使用不同的特征來預測結果。

498584d4-4f2b-11ed-b116-dac502259ad0.png

Bagging通常有兩種類型——決策樹的集合(稱為隨機森林)和決策樹以外的模型的集合。兩者的工作原理相似,都使用聚合方法生成最終預測,唯一的區別是它們所基于的模型。在sklearn中,我們有一個BaggingClassifier類,用于創建除決策樹以外的模型。

 ## Bagging Ensemble of Same Classifiers (Decision Trees)
 from sklearn.ensemble import RandomForestClassifier  
 classifier= RandomForestClassifier(n_estimators= 10, criterion="entropy")  
 classifier.fit(x_train, y_train)
 
 
 ## Bagging Ensemble of Different Classifiers
 from sklearn.ensemble import BaggingClassifier
 from sklearn.svm import SVC
 clf = BaggingClassifier(base_estimator=SVC(),
                          n_estimators=10, random_state=0)
 clf.fit(X_train,y_train)


Boosting

增強集成方法通過重視先前模型的錯誤,將弱學習者轉化為強學習者。Boosting以順序的方式實現同構ML算法,每個模型都試圖通過減少前一個模型的誤差來提高整個過程的穩定性。

4998b054-4f2b-11ed-b116-dac502259ad0.png

在訓練n+1模型時,數據集中的每個數據點都被賦予了相等的權重,這樣被模型n錯誤分類的樣本就能被賦予更多的權重(重要性)。誤差從n個學習者傳遞給n+1個學習者,每個學習者都試圖減少誤差。

ADA Boost是使用Boost生成預測的最基本模型之一。ADA boost創建一個決策樹樁森林(一個樹樁是一個只有一個節點和兩個葉子的決策樹),不像隨機森林創建整個決策樹森林。它給分類錯誤的樣本分配更高的權重,并繼續訓練模型,直到得到較低的錯誤率。

 from sklearn.tree import DecisionTreeClassifier
 from sklearn.ensemble import AdaBoostClassifier
 
 dt = DecisionTreeClassifier(max_depth=2, random_state=0)
 adc = AdaBoostClassifier(base_estimator=dt, n_estimators=7, learning_rate=0.1, random_state=0)
 
 adc.fit(x_train, y_train)


Stacking

Stacking也被稱為疊加泛化,是David H. Wolpert在1992年提出的集成技術的一種形式,目的是通過使用不同的泛化器來減少錯誤。

49b10410-4f2b-11ed-b116-dac502259ad0.png

疊加模型利用來自多個基礎模型的預測來構建元模型,用于生成最終的預測。堆疊模型由多層組成,其中每一層由幾個機器學習模型組成,這些模型的預測用于訓練下一層模型。

在疊加過程中,將數據分為訓練集和測試集兩部分。訓練集會被進一步劃分為k-fold。基礎模型在k-1部分進行訓練,在k??部分進行預測。這個過程被反復迭代,直到每一折都被預測出來。然后將基本模型擬合到整個數據集,并計算性能。這個過程也適用于其他基本模型。

來自訓練集的預測被用作構建第二層或元模型的特征。這個第二級模型用于預測測試集。

 from sklearn.neighbors import KNeighborsClassifier
 from sklearn.tree import DecisionTreeClassifier
 from sklearn.svm import SVC
 from sklearn.linear_model import LogisticRegression
 from sklearn.ensemble import StackingClassifier
 
 base_learners = [
                  ('l1', KNeighborsClassifier()),
                  ('l2', DecisionTreeClassifier()),
                  ('l3',SVC(gamma=2, C=1)))
                ]
 model = StackingClassifier(estimators=base_learners, final_estimator=LogisticRegression(),cv=5)
 model.fit(X_train, y_train)


Blending

Blending是從Stacking派生出來另一種形式的集成學習技術,兩者之間的唯一區別是它使用來自一個訓練集的保留(驗證)集來進行預測。簡單地說,預測只針對保留的數據集。保留的數據集和預測用于構建第二級模型。

49c731d6-4f2b-11ed-b116-dac502259ad0.png

 import numpy as np
 from sklearn.datasets import make_classification
 from sklearn.model_selection import train_test_split
 from sklearn.metrics import accuracy_score
 
 ## Base Models
 from sklearn.neighbors import KNeighborsClassifier
 from sklearn.tree import DecisionTreeClassifier
 from sklearn.svm import SVC
 
 ## Meta Learner
 from sklearn.linear_model import LogisticRegression
 
 ## Creating Sample Data
 X,y = make_classification(n_samples=10000, n_features=20, n_informative=15, n_redundant=5, random_state=42)
 
 ## Training a Individual Logistic Regression Model
 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=1)
 logrec = LogisticRegression()
 logrec.fit(X_train,y_train)
 pred = logrec.predict(X_test)
 score = accuracy_score(y_test, pred)
 print('Base Model Accuracy: %.3f' % (score*100))
 
 ## Defining Base Models
 def base_models():
  models = list()
  models.append(('knn', KNeighborsClassifier()))
  models.append(('dt', DecisionTreeClassifier()))
  models.append(('svm', SVC(probability=True)))
  return models
 
 ## Fitting Ensemble Blending Model
 ## Step 1:Splitting Data Into Train, Holdout(Validation) and Test Sets
 X_train_full, X_test, y_train_full, y_test = train_test_split(X, y, test_size=0.3, random_state=1)
 X_train, X_val, y_train, y_val = train_test_split(X_train_full, y_train_full, test_size=0.33, random_state=1)
 
 ## Step 2: train base models on train set and make predictions on validation set
 models = base_models()
 meta_X = list()
 for name, model in models:
    # training base models on train set
 model.fit(X_train, y_train)
 # predict on hold out set
 yhat = model.predict_proba(X_val)
    # storing predictions
 meta_X.append(yhat)
 # horizontal stacking predictions
 meta_X = np.hstack(meta_X)
 
 ## Step 3: Creating Blending Meta Learner
 blender = LogisticRegression()
 ## training on base model predictions
 blender.fit(meta_X, y_val)
 
 ## Step 4: Making predictions using blending meta learner
 meta_X = list()
 for name, model in models:
  yhat = model.predict_proba(X_test)
  meta_X.append(yhat)
 meta_X = np.hstack(meta_X)
 y_pred = blender.predict(meta_X)
 
 # Evaluate predictions
 score = accuracy_score(y_test, y_pred)
 print('Blending Accuracy: %.3f' % (score*100))
 ---------------------------------
 Base Model Accuracy: 82.367
 Blending Accuracy: 96.733

總結

在閱讀完本文之后,您可能想知道是否有選擇一個更好的模型最好的方法或者如果需要的話,使用哪種集成技術呢?

在這個問題時,我們總是建議從一個簡單的個體模型開始,然后使用不同的建模技術(如集成學習)對其進行測試。在某些情況下,單個模型可能比集成模型表現得更好,甚至好很多。

需要說明并且需要注意的一點是:集成學習絕不應該是第一選擇,而應該是最后一個選擇。原因很簡單:訓練一個集成模型將花費很多時間,并且需要大量的處理能力。

回到我們的問題,集成模型旨在通過組合同一類別的幾個基本模型來提高模型的可預測性。每種集成技術都是最好的,有助于提高模型性能。

如果你正在尋找一種簡單且易于實現的集成方法,那么應該使用Voting。如果你的數據有很高的方差,那么你應該嘗試Bagging。如果訓練的基礎模型在模型預測中有很高的偏差,那么可以嘗試不同的Boosting技術來提高準確性。如果有多個基礎模型在數據上表現都很好好,并且不知道選擇哪一個作為最終模型,那么可以使用Stacking 或Blending的方法。當然具體哪種方法表現得最好還是要取決于數據和特征分布。

最后集成學習技術是提高模型精度和性能的強大工具,它們很容易減少數據過擬合和欠擬合的機會,尤其在參加比賽時這是提分的關鍵。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8408

    瀏覽量

    132575
收藏 人收藏

    評論

    相關推薦

    AI大模型與深度學習的關系

    AI大模型與深度學習之間存在著密不可分的關系,它們互為促進,相輔相成。以下是對兩者關系的介紹: 一、深度學習是AI大模型的基礎 技術支撐 :深度學習
    的頭像 發表于 10-23 15:25 ?676次閱讀

    AI大模型與傳統機器學習的區別

    AI大模型與傳統機器學習在多個方面存在顯著的區別。以下是對這些區別的介紹: 一、模型規模與復雜度 AI大模型 :通常包含數十億甚至數萬億的參
    的頭像 發表于 10-23 15:01 ?560次閱讀

    萬界星空科技MES數據的集成方

    MES系統與其他系統常見的集成方式。根據實際需求和系統環境,選擇適合的集成方式可以實現不同系統之間的協同工作,提高生產效率和管理水平。具體的集成方式可能因企業和行業的不同而有所差異。
    的頭像 發表于 10-09 15:30 ?148次閱讀
    萬界星空科技MES數據的<b class='flag-5'>集成方</b>式

    常用的devops工具集成方法

    常用的devops工具集成方法涵蓋了軟件開發和運維的各個方面,從版本控制到自動化構建、測試、部署和監控。這些工具的有效集成可以幫助團隊提高協作效率,減少溝通障礙,實現快速、高質量的軟件交付。
    的頭像 發表于 10-09 11:21 ?245次閱讀

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    一些局限性。例如,模型可能無法完全理解文本中的深層含義和語境信息;同時,由于訓練數據可能存在偏差和噪聲,生成的答案也可能存在不準確或誤導性的情況。 總結以下,大語言模型通過深度學習
    發表于 08-02 11:03

    【《大語言模型應用指南》閱讀體驗】+ 基礎篇

    章節介紹了機器學習,從方法論上來看,機器學習屬于歸納推理;從開發設計方式來看,機器
    發表于 07-25 14:33

    深度學習模型量化方法

    深度學習模型量化是一種重要的模型輕量化技術,旨在通過減少網絡參數的比特寬度來減小模型大小和加速推理過程,同時盡量保持模型性能。從而達到把
    的頭像 發表于 07-15 11:01 ?492次閱讀
    深度<b class='flag-5'>學習</b><b class='flag-5'>模型</b>量化<b class='flag-5'>方法</b>

    pycharm如何訓練機器學習模型

    PyCharm是一個流行的Python集成開發環境(IDE),它提供了豐富的功能,包括代碼編輯、調試、測試等。在本文中,我們將介紹如何在PyCharm中訓練機器學習模型。 一、安裝Py
    的頭像 發表于 07-11 10:14 ?785次閱讀

    機器學習中的數據分割方法

    機器學習中,數據分割是一項至關重要的任務,它直接影響到模型的訓練效果、泛化能力以及最終的性能評估。本文將從多個方面詳細探討機器學習中數據分
    的頭像 發表于 07-10 16:10 ?1728次閱讀

    如何理解機器學習中的訓練集、驗證集和測試集

    理解機器學習中的訓練集、驗證集和測試集,是掌握機器學習核心概念和流程的重要一步。這三者不僅構成了模型學習
    的頭像 發表于 07-10 15:45 ?3820次閱讀

    Al大模型機器

    豐富的知識儲備。它們可以涵蓋各種領域的知識,并能夠回答相關問題。靈活性與通用性: AI大模型機器人具有很強的靈活性和通用性,能夠處理各種類型的任務和問題。持續學習和改進: 這些模型可以
    發表于 07-05 08:52

    人工神經網絡與傳統機器學習模型的區別

    人工神經網絡(ANN)與傳統機器學習模型之間的不同,包括其原理、數據處理能力、學習方法、適用場景及未來發展趨勢等方面,以期為讀者提供一個全面的視角。
    的頭像 發表于 07-04 14:08 ?1253次閱讀

    深度學習模型優化與調試方法

    深度學習模型在訓練過程中,往往會遇到各種問題和挑戰,如過擬合、欠擬合、梯度消失或爆炸等。因此,對深度學習模型進行優化與調試是確保其性能優越的關鍵步驟。本文將從數據預處理、
    的頭像 發表于 07-01 11:41 ?806次閱讀

    模型技術及趨勢總結

    本篇文章旨在希望大家對大模型的本質、技術和發展趨勢有簡單的了解。由于近期大模型技術發展很快,這里對大模型的技術、本質及未來趨勢進行總結和探討時,因為水平有限,疏漏在所難免。請大家諒解。
    的頭像 發表于 06-21 17:38 ?662次閱讀
    大<b class='flag-5'>模型</b>技術及趨勢<b class='flag-5'>總結</b>

    如何使用TensorFlow構建機器學習模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創建一個簡單的機器學習模型
    的頭像 發表于 01-08 09:25 ?968次閱讀
    如何使用TensorFlow構建<b class='flag-5'>機器</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b>
    主站蜘蛛池模板: 天堂无码人妻精品AV一区| 最近的2019中文字幕国语| 久久午夜免费视频| 爆操大胸美女| 一起碰一起噜一起草视频| 日本性xxx| 久久视频精品38线视频在线观看| 范冰冰hdxxxx| 做你的爱人BD日本| 亚洲国产亚综合在线区尤物| 女子扒开腿让男生桶爽| 黄色网址在线看| 国产CHINESE HD精品| 99久久国产综合精品| 成人在线免费看片| 在线精品国精品国产不卡| 亚洲91av| 九九热这里有精品| 第一次处破女高清电影| 91国在线产| 色狠狠一区二区| 免费高清国产| 俄罗斯18xv在线观看| 97人妻无码AV碰碰视频| 一级特黄视频| 亚洲欧美日本中文子不卡| 我年轻漂亮的继坶2中字在线播放| 欧美精品高潮呻吟AV久久 | 久久精品视频在线看| 国产一区精选播放022| 国产AV99激情久久无码天堂| A国产一区二区免费入口| 中字幕视频在线永久在线| 一本道dvd久久综合高清免费 | 国产成人精选免费视频| yellow在线中文| WWWXXXX兽交| wwwwwwwww日本电影| 成人国产亚洲欧美成人综合网 | 欧美精品中文字幕亚洲专区| 伦理片午夜在线视频|