前言
深度學習由于對傳統方法較為困難處理的問題有著十分優秀的解決,所以近年來在各個領域飛速發展。但由于內部的復雜性和網絡中的非線性結構,人們對于深度神經網絡取得高水平表現的潛在原因并不清晰,理解其中的決策過程也充滿了挑戰,對于網絡的解讀也充滿了神秘。隨著深度學習向各個領域的廣泛滲透,我們需要為用戶提供一種可以理解深度學習的工具,讓人們可以明白網絡何時在正確的工作,什么時候失效,同時也有助于提高算法的性能。
目前,標準化的神經網絡工具箱讓深度學習的構建變得十分容易,而今對于系統的可視化分析又在幫助著我們解釋、解讀、調整和改進網絡。我們在這篇文章中呈現了目前對于深度學習可視化分析的方法,總結了先進的分析框架,主要集中在5w1h上(即why,who,what,how,when和where)來總結深度學習視覺分析方面的研究成果。同時,這篇論文還歸納了這一領域的研究方向和尚未解決的問題以供參考。這篇論文可以幫助深度學習和可視化分析領域的新研究者和從業者盡快的掌握這一年輕又迅速發展的領域以及其中的分類和范圍。
深度學習的強大和迅速發展有目共睹,但這也帶來了獨特和全新的挑戰,例如深度學習方法缺乏可解釋性和透明性,從學習表象到潛在的決策過程缺乏可靠的有效解釋是其中一個重要的問題。另外,對于模型構建者來說尋找對于特定模型誤分類的數據或者行為還面臨著挑戰。
同樣,終端用戶在使用基于深度學習應用的app時對于其可靠性的疑慮還無從解決。嘗試著解釋神經網絡是十分重要的,但深度學習同時還帶來了一系列新的問題。例如:人工智能的安全性(例如用于自動駕駛)、模型的可信度、不透明的自動化決策過程、數據和模型內在的偏見,還有很多不一一列舉。就像人們擔心的一樣,隨著AI系統更加大規模和廣泛的應用,這些問題只會變得越來越大,所以對于模型的理解不僅有益于深度學習的發展,更是這一領域所必須的方面來解決這些潛在的但影響重大的問題。
數據可視化和視覺分析通過將抽象的數據轉換為形象的表現從而可以高效的發現數據的信息并凝練出知識。Zeiler和Fergus提出了一種影響深遠的方法,這種稱為解卷積神經網絡的技術可以將模型習得的特征反投影到像素空間中去,可以讓我們清晰的洞察深度網絡的特定層習得了哪種類型的特征,同時可以作為一個提高模型性能的工具來使用。這一工作近年來在機器學習和計算機視覺領域流行起來,為人們理解和改進深度學習模型提供了方法和手段。但對于神經網絡的可視化研究才剛剛開始。
人們發明了一系列的方法來幫助理解神經網絡。其中一部分屬于靜態方法,例如圖像分類中的注意力圖和熱力圖方法,用于表明圖像中的對于分類影響最大的部分。同時交互性方法在模型視覺分析理解中的引入增進了人們對于模型的洞察力。這一領域在學術界和工業界都在高速發展,造就了論文、研討會、工具包等蓬勃發展。
在這篇文章中,作者總結了基于5W和H的深度學習可視化研究工作,具體見下圖所示:
這篇論文提供了深度學習可視化和視覺分析領域全面、及時的總結,利用以人為本的疑問式框架來組織文章結構,給予5W和H的方面靈活但全面地總結出現有工作的貢獻。利用這樣的框架可以通俗化的講解這一領域,讓新近人員迅速掌握領域的研究現狀,不僅為描述現有工作提供了框架,更為新工作提供了樣本。
為了強調和整理視覺分析在深度學習各個方面的影響,本文聚焦于可視化分析,同時探討了目前在人工智能、機器學習、深度學習、計算機視覺等方面的進展,同時還闡述了可視化如何作為幫助解決一些著名的現代AI問題,例如神經網絡的可解釋性、置信度和安全性等方面。
由于深度學習和AI觸及生活生產的方方面面,本文還為總結出未來的研究方向和開放問題供研究人員參考,包括促進視覺分析系統對于神經網絡的可解釋性、對于這類系統有效性和可用性的評價指標、以人為中心的AI系統、AI應用的倫理性與適用范圍等。
關于研究方法,為了總結目前這一領域的研究狀況,作者選取了頂級的可視化和視覺分析領域的期刊、以及一系列深度學習的頂級會議、論壇、研討會作為信息來源。同時為了保證信息的時效性,作者參考了預印本網站arXiv,同時還涵蓋了一系列非學術資源以保證最前沿的信息獲取,例如Distall,行業實驗室和研究博客等等。
-
深度學習
+關注
關注
73文章
5512瀏覽量
121410
原文標題:推薦 | 深度學習可視化分析發展概覽
文章出處:【微信號:thejiangmen,微信公眾號:將門創投】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論