色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

可以提高機器學習模型的可解釋性技術

QQ475400555 ? 來源:機器視覺沙龍 ? 2023-02-08 14:08 ? 次閱讀

目前很多機器學習模型可以做出非常好的預測,但是它們并不能很好地解釋他們是如何進行預測的,很多數據科學家都很難知曉為什么該算法會得到這樣的預測結果。這是非常致命的,因為如果我們無法知道某個算法是如何進行預測,那么我們將很難將其前一道其它的問題中,很難進行算法的debug。

本文介紹目前常見的幾種可以提高機器學習模型的可解釋性的技術,包括它們的相對優點和缺點。我們將其分為下面幾種:

Partial Dependence Plot (PDP);

Individual Conditional Expectation (ICE)

Permuted Feature Importance

Global Surrogate

Local Surrogate (LIME)

Shapley Value (SHAP)

六大可解釋性技術 8c86894c-a20d-11ed-bfe3-dac502259ad0.png

01

Partial Dependence Plot (PDP)

PDP是十幾年之前發明的,它可以顯示一個或兩個特征對機器學習模型的預測結果的邊際效應。它可以幫助研究人員確定當大量特征調整時,模型預測會發生什么樣的變化。

8c9ef400-a20d-11ed-bfe3-dac502259ad0.png

上面圖中,軸表示特征的值,軸表示預測值。陰影區域中的實線顯示了平均預測如何隨著值的變化而變化。PDP能很直觀地顯示平均邊際效應,因此可能會隱藏異質效應。

例如,一個特征可能與一半數據的預測正相關,與另一半數據負相關。那么PDP圖將只是一條水平線。

02

Individual Conditional Expectation (ICE)

ICE和PDP非常相似,但和PDP不同之處在于,PDP繪制的是平均情況,但是ICE會顯示每個實例的情況。ICE可以幫助我們解釋一個特定的特征改變時,模型的預測會怎么變化。

8cb12472-a20d-11ed-bfe3-dac502259ad0.png

如上圖所示,與PDP不同,ICE曲線可以揭示異質關系。但其最大的問題在于:它不能像PDP那樣容易看到平均效果,所以可以考慮將二者結合起來一起使用。

03

Permuted Feature Importance

Permuted Feature Importance的特征重要性是通過特征值打亂后模型預測誤差的變化得到的。換句話說,Permuted Feature Importance有助于定義模型中的特征對最終預測做出貢獻的大小。

8cc51888-a20d-11ed-bfe3-dac502259ad0.png

如上圖所示,特征f2在特征的最上面,對模型的誤差影響是最大的,f1在shuffle之后對模型卻幾乎沒什么影響,生息的特征則對于模型是負面的貢獻。

04

Global Surrogate

Global Surrogate方法采用不同的方法。它通過訓練一個可解釋的模型來近似黑盒模型的預測。

首先,我們使用經過訓練的黑盒模型對數據集進行預測;

然后我們在該數據集和預測上訓練可解釋的模型。

訓練好的可解釋模型可以近似原始模型,我們需要做的就是解釋該模型。

注:代理模型可以是任何可解釋的模型:線性模型、決策樹、人類定義的規則等。

8cd69950-a20d-11ed-bfe3-dac502259ad0.png

使用可解釋的模型來近似黑盒模型會引入額外的誤差,但額外的誤差可以通過R平方來衡量。

由于代理模型僅根據黑盒模型的預測而不是真實結果進行訓練,因此全局代理模型只能解釋黑盒模型,而不能解釋數據。

05

Local Surrogate (LIME)

LIME(Local Interpretable Model-agnostic Explanations)和global surrogate是不同的,因為它不嘗試解釋整個模型。相反,它訓練可解釋的模型來近似單個預測。LIME試圖了解當我們擾亂數據樣本時預測是如何變化的。

8ce83110-a20d-11ed-bfe3-dac502259ad0.jpg

上面左邊的圖像被分成可解釋的部分。然后,LIME 通過“關閉”一些可解釋的組件(在這種情況下,使它們變灰)來生成擾動實例的數據集。對于每個擾動實例,可以使用經過訓練的模型來獲取圖像中存在樹蛙的概率,然后在該數據集上學習局部加權線性模型。最后,使用具有最高正向權重的成分來作為解釋。

06

Shapley Value (SHAP)

Shapley Value的概念來自博弈論。我們可以通過假設實例的每個特征值是游戲中的“玩家”來解釋預測。每個玩家的貢獻是通過在其余玩家的所有子集中添加和刪除玩家來衡量的。一名球員的Shapley Value是其所有貢獻的加權總和。Shapley 值是可加的,局部準確的。如果將所有特征的Shapley值加起來,再加上基值,即預測平均值,您將得到準確的預測值。這是許多其他方法所沒有的功能。

8d168c90-a20d-11ed-bfe3-dac502259ad0.png

該圖顯示了每個特征的Shapley值,表示將模型結果從基礎值推到最終預測的貢獻。紅色表示正面貢獻,藍色表示負面貢獻。

小結

機器學習模型的可解釋性是機器學習中一個非常活躍而且重要的研究領域。本文中我們介紹了6種常用的用于理解機器學習模型的算法。大家可以依據自己的實踐場景進行使用。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • PDP
    PDP
    +關注

    關注

    0

    文章

    53

    瀏覽量

    36522
  • 機器學習
    +關注

    關注

    66

    文章

    8490

    瀏覽量

    134025

原文標題:機器學習模型的可解釋性算法匯總!

文章出處:【微信號:機器視覺沙龍,微信公眾號:機器視覺沙龍】歡迎添加關注!文章轉載請注明出處。

收藏 0人收藏

    評論

    相關推薦
    熱點推薦

    AI大模型在汽車應用中的推理、降本與可解釋性研究

    佐思汽研發布《2024-2025年AI大模型及其在汽車領域的應用研究報告》。 推理能力成為大模型性能提升的驅動引擎 2024下半年以來,國內外大模型公司紛紛推出推理模型,通過以CoT為
    的頭像 發表于 02-18 15:02 ?1042次閱讀
    AI大<b class='flag-5'>模型</b>在汽車應用中的推理、降本與<b class='flag-5'>可解釋性</b>研究

    機器學習模型市場前景如何

    當今,隨著算法的不斷優化、數據量的爆炸式增長以及計算能力的飛速提升,機器學習模型的市場前景愈發廣闊。下面,AI部落小編將探討機器學習
    的頭像 發表于 02-13 09:39 ?275次閱讀

    小白學解釋性AI:從機器學習到大模型

    科學AI需要可解釋性人工智能的崛起,尤其是深度學習的發展,在眾多領域帶來了令人矚目的進步。然而,伴隨這些進步而來的是一個關鍵問題——“黑箱”問題。許多人工智能模型,特別是復雜的模型,如
    的頭像 發表于 02-10 12:12 ?503次閱讀
    小白學<b class='flag-5'>解釋性</b>AI:從<b class='flag-5'>機器</b><b class='flag-5'>學習</b>到大<b class='flag-5'>模型</b>

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+大模型微調技術解讀

    。通過微調,模型可以學習特定領域的專業知識和語言特征,從而在高度專業化的領域中展現出卓越的表現。微調過程主要有這幾項內容:數據清洗:消除噪聲、提高數據質量。包括處理缺失值(如用特殊符號
    發表于 01-14 16:51

    【「具身智能機器人系統」閱讀體驗】2.具身智能機器人大模型

    ,能夠利用\"思維鏈\"的技術將復雜任務分解為多個子任務,以漸進的方式解決問題。這不僅提高了任務的成功率,也顯著增強了系統的魯棒,使得機器可以
    發表于 12-29 23:04

    《具身智能機器人系統》第7-9章閱讀心得之具身智能機器人與大模型

    設計專門的編碼器處理視覺、觸覺、位置等不同類型的傳感器數據,再用cross-attention機制將它們對齊到同一語義空間。這種設計不僅提高模型的感知能力,還增強了推理過程的可解釋性。在實驗中,RT-1
    發表于 12-24 15:03

    深度學習模型的魯棒優化

    深度學習模型的魯棒優化是一個復雜但至關重要的任務,它涉及多個方面的技術和策略。以下是一些關鍵的優化方法: 一、數據預處理與增強 數據清洗 :去除數據中的噪聲和異常值,這是
    的頭像 發表于 11-11 10:25 ?850次閱讀

    魯棒機器學習中的重要

    機器學習領域,模型的魯棒是指模型在面對輸入數據的擾動、異常值、噪聲或對抗性攻擊時,仍能保持性能的能力。隨著人工智能
    的頭像 發表于 11-11 10:19 ?1083次閱讀

    常見AI大模型的比較與選擇指南

    在選擇AI大模型時,明確具體需求、了解模型的訓練數據、計算資源要求和成本,并考慮模型可解釋性和社區支持情況等因素至關重要。以下是對常見AI大模型
    的頭像 發表于 10-23 15:36 ?2317次閱讀

    AI大模型與深度學習的關系

    人類的學習過程,實現對復雜數據的學習和識別。AI大模型則是指模型的參數數量巨大,需要龐大的計算資源來進行訓練和推理。深度學習算法為AI大
    的頭像 發表于 10-23 15:25 ?2643次閱讀

    AI大模型與傳統機器學習的區別

    AI大模型與傳統機器學習在多個方面存在顯著的區別。以下是對這些區別的介紹: 一、模型規模與復雜度 AI大模型 :通常包含數十億甚至數萬億的參
    的頭像 發表于 10-23 15:01 ?2343次閱讀

    《AI for Science:人工智能驅動科學創新》第二章AI for Science的技術支撐學習心得

    。 4. 物理與AI的融合 在閱讀過程中,我對于物理與AI的融合有了更加深入的認識。AI for Science不僅依賴于數據,還需要結合物理定律和原理來確保模型的準確可解釋性。這種融合不僅
    發表于 10-14 09:16

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    能夠關注到輸入文本中的重要部分,從而提高預測的準確和效率。這種機制允許模型在處理文本時同時考慮多個位置的信息,并根據重要進行加權處理。 一些關鍵
    發表于 08-02 11:03

    Al大模型機器

    和迭代來不斷改進自身性能。它們可以從用戶交互中學習并根據反饋進行調整,以提高對話質量和準確。可定制與整合
    發表于 07-05 08:52

    【大規模語言模型:從理論到實踐】- 閱讀體驗

    直觀地解釋和理解。這可能會影響模型可解釋性和可信賴,特別是在需要高度可靠的場景中。 通過修改注意力機制的計算方式或引入新的架構來降低
    發表于 06-07 14:44
    主站蜘蛛池模板: 日本红怡院亚洲红怡院最新 | 在线看片韩国免费人成视频 | 久久国产av偷拍在线 | 亚洲熟少妇在线播放999 | FREE性丰满HD毛多多 | 亚洲精品无码国产爽快A片百度 | 在线欧美免费人成视频 | 亚洲 日韩经典 中文字幕 | 哒哒哒高清视频在线观看 | 久久99re2热在线播放7 | 日韩在线 无码 精品 | 无码国产成人777爽死 | 亚洲乱码中文字幕久久 | 欧洲精品一区二区不卡观看 | 青青草原国产在线 | 国产精品一区二区在线播放 | 99精品无码AV在线播放 | 亚洲午夜精品A片久久WWW软件 | 欧美xxxxxbb| 亚洲狠狠网站色噜噜 | 13小箩利洗澡无码视频APP | 久久久乱码精品亚洲日韩 | 亚洲国产成人久久精品影视 | 亚洲AV无码专区国产精品麻豆 | 色欲无码国产喷水AV精品 | 亚洲伊人久久精品 | 特级淫片大乳女子高清视频 | 国产成人精品视频免费大全 | 猪蜜蜜网站在线观看电视剧 | 欧美 亚洲 另类 综合网 | 黄色免费网址在线观看 | 天天日免费观看视频一1 | 色偷偷超碰97人人澡人人 | 美女脱内衣裸身尿口露出来 | 久久精品免费电影 | 亚洲 自拍 欧洲 视频二区 | 嫩草影院在线观看精品视频 | 3D内射动漫同人资源在线观看 | 日韩伦理电影秋霞影院 | 欧美日韩北条麻妃一区二区 | 亚洲视频区 |

    電子發燒友

    中國電子工程師最喜歡的網站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品