人工智慧、機器學(xué)習(xí)以及深度學(xué)習(xí)已變成現(xiàn)今最熱門的話題之一,但以字面上的意思不足以清楚的表達其意義,使得人們常?;煜?。以下這篇文章將帶領(lǐng)各位理解其定義,并且簡單的探討機器學(xué)習(xí)與深度學(xué)習(xí)基本概念與運算過程。
一、人工智慧(Artificial Intelligence) :
所謂的人工智慧(Artificial Intelligence) 是人類建立于機器上的類似大腦智慧的一種判斷機制。其目的以編寫程式的方式,模擬出人類大腦中的決策,并模仿、理解、學(xué)習(xí)等等特性,而形成類似人類的「智慧」。其中利用大量的硬體設(shè)備作為資訊來源作為訊息的接收,舉例以鏡頭串流影像作為人眼、以麥克風(fēng)收集聲音作為耳朵等等。
人工智慧隸屬于大範疇,包含了機器學(xué)習(xí)(Machine Learning) 與深度學(xué)習(xí)(Deep Learning)。如下圖所示,我們最興趣的深度學(xué)習(xí)則是規(guī)範于機器學(xué)習(xí)之中的一項分支,而以下段落將簡單介紹機器學(xué)習(xí)與深度學(xué)習(xí)的差異。
二、機器學(xué)習(xí)(Machine Learning):
機器學(xué)習(xí)是一種透過演算法設(shè)計,讓機器去尋求最佳化的一種學(xué)科。能幫助人們探討一些復(fù)雜的問題,比如需要從一大堆數(shù)據(jù)資料判斷貓與狗時,從前人們必須利用過往的實驗經(jīng)驗反覆地找出判斷規(guī)則或是最佳的判斷機制。而透過機器學(xué)習(xí)方式則提供許多有效率的演算法,幫助人們分析資料,比如說資料群聚分布,資料的回歸模型等等,將資料送至機器上進行演算找出最好的解答或是模型。以下將介紹機器學(xué)習(xí)的類別:
機器學(xué)習(xí)主要可分類成
1. 監(jiān)督式學(xué)習(xí) :
須將每筆資料標記上一個「標籤」,比如是與非回答、狗與貓、蘋果與橘子,利用大量已知標籤資訊與資料訓(xùn)練的方式建立出一個分類器(Classifier)或稱模型(Model)。除了資料分類,監(jiān)督式學(xué)習(xí)亦包含回 歸分析(Regression)算法。最具代表的算法有 Adaboost 、SVM 、Neural Network 等等。
非監(jiān)督式學(xué)習(xí) :
「無須標記標籤」于每筆資料,常以資料的分布狀況去建立一個分類器。除了聚類分類(clustering),非監(jiān)督式學(xué)習(xí)亦包含降低維度(dimensionality reduce)以及關(guān)聯(lián)規(guī)則( association rule)等演算法。 最具代表的算法有 Kmean 、PCA 等等。
強化式學(xué)習(xí) :
則是「不需給機器任何資料」,讓機器不斷從互動中學(xué)習(xí),并利用獎懲與成效評估的機制,不斷嘗試與修正至最佳化的模型。最具代表的算法有 Q-Learning 、SARSA 等等。
近年來深度學(xué)習(xí)的基礎(chǔ)皆來至于類神經(jīng)網(wǎng)路的演算法,以下先簡單介紹此算法。
類神經(jīng)網(wǎng)路(Neural Network):
近年回歸于熱門的就是類神經(jīng)網(wǎng)路(Neural Network),起源1943年于 沃倫·麥卡洛克 和 沃爾特·皮茨 為一種閾值邏輯的演算法。因為利用數(shù)個節(jié)點進行判斷,很像人類的神經(jīng)元故以神經(jīng)網(wǎng)路而命名。然而此算法運算量頗大,當時又缺乏硬體設(shè)備,造成神經(jīng)網(wǎng)路的發(fā)展受到侷限,且當時支撐向量機(SVM)正受到學(xué)界關(guān)注,故類神經(jīng)網(wǎng)路不受青睞。
時間線回到現(xiàn)今,因有充足的硬體設(shè)備使得神經(jīng)網(wǎng)路重新受到矚目,竟而發(fā)展出 RNN 遞迴神經(jīng)網(wǎng)路、 LSTM 長短時記憶網(wǎng)路、 RBF 神經(jīng)網(wǎng)路等等算法,我們所認知的卷積神經(jīng)網(wǎng)路(CNN)也是從中發(fā)展而來,其中類神經(jīng)網(wǎng)路最具代表性的設(shè)計為反向傳遞的機制 ,經(jīng)由不斷迭代,對比預(yù)測值與實際值之間的誤差,以修正模組中的權(quán)重,竟而達到最佳化之目的,以下將簡單介紹類神經(jīng)網(wǎng)路(NN)的算法。
探討架構(gòu)之前須理解感知器(Perceptron),而所謂的感知器可想像為人類大腦中的每一個神經(jīng)元,我們透過這些神經(jīng)網(wǎng)的傳遞與訊號,給我們做出正確的判斷。如下圖所示,我們可將資料作為 x1 至 xd 并代入權(quán)重相加計算,得到一個評分數(shù)值 y,藉由這個數(shù)值去判斷是與否、狗與貓等等二元分類的答案。
回到類神經(jīng)網(wǎng)路可以說是一種多層的感知器模型,可以想像成數(shù)個神經(jīng)元(感知器)所構(gòu)成的復(fù)雜網(wǎng)路。最基礎(chǔ)神經(jīng)網(wǎng)路架構(gòu)可分作輸入層、隱藏層、輸出層,如下圖所示:
而透過大量的資料訓(xùn)練以及反向傳播的機制,不斷誤差修正各個感知器的權(quán)重,因此可以清楚地反映資料分布,竟可能找出最佳化真實模型。訓(xùn)練資料的方式常以是數(shù)張圖片,以同樣規(guī)格尺寸與特徵進行訓(xùn)練與分類。雖然神經(jīng)網(wǎng)路可以很好的反應(yīng)出最佳化模型,但直接代入圖片至類神經(jīng)網(wǎng)路進行訓(xùn)練并不能獲得一個很好的模型,其狀況是因為構(gòu)成良好的模組之前須帶入有效的特徵數(shù)據(jù)或是良好的特徵擷取,才能獲得較佳的模型。
叁、深度學(xué)習(xí)(Deep Learning)
對于有效的特徵數(shù)據(jù)一直都是機器學(xué)習(xí)中一個較深論的課題,近年來深度學(xué)習(xí)出現(xiàn)簡化這項問題, 直接打破上述這些思維。所謂的深度學(xué)習(xí)與機器學(xué)習(xí)最大的差異,就是輸入端的特徵提取!! 而深度學(xué)習(xí)將會透過卷積的方式,取代了特徵提取這個環(huán)節(jié),如下圖說明機器學(xué)習(xí)與深度學(xué)習(xí)的主要差異。
卷積神經(jīng)網(wǎng)路(Convolutional Neural Network, CNN ),為具代表性的深度學(xué)習(xí)算法之一,是由類神經(jīng)網(wǎng)路演化而來。 如下圖所示,此算法透過卷積(Convolution)的方式,對圖片進行特徵提?。╢eature extraction),其中卷積的遮罩係數(shù)則是隨機產(chǎn)生的。透過卷積濾波器產(chǎn)生的特徵,送至分類器(Classification)進行分類即為卷積神經(jīng)網(wǎng)路。
(此圖出處于參考文獻)
卷積神經(jīng)網(wǎng)路(CNN)主要可分為
卷積層(convolution layer):利用隨機產(chǎn)生的遮罩進行特徵提取。
池化層(pooling layer):對不同位置的特徵進行統(tǒng)計,并取平均值或最大值作為最佳參考點,以減少資料特徵維度。
全連接層(fully connected layer):是將之前的卷積與池化后之結(jié)果進行平坦化,并接到最基本的神經(jīng)網(wǎng)絡(luò)。
透過上述所介紹的主要的叁個層,即可完成一個CNN架構(gòu),如下圖所示為最典型的CNN架構(gòu)。
透過深度學(xué)習(xí)的方式,簡單的將提取到有效的特徵。盡而逼近最佳模型。因此近年來有許多學(xué)術(shù)專家對 CNN 架構(gòu)進行研究并舉辦比賽,目前較熱門的 CNN 模型有 LeNet、VGG、ResNet 等等,并經(jīng)由研究得知只要架構(gòu)的深度夠深,對于模型的準確度越高,故而稱為深度學(xué)習(xí)。
-
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8472瀏覽量
133727 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5533瀏覽量
122189 -
神經(jīng)網(wǎng)路
+關(guān)注
關(guān)注
0文章
8瀏覽量
2668
發(fā)布評論請先 登錄
相關(guān)推薦
深度學(xué)習(xí)與數(shù)據(jù)挖掘的關(guān)系
人工智能基本概念機器學(xué)習(xí)算法
什么是機器學(xué)習(xí)_十張圖帶你解析機器學(xué)習(xí)的基本概念

深度學(xué)習(xí)算法背后的數(shù)學(xué)
機器學(xué)習(xí)進入游戲的過程的探討
從概念和特點上闡述機器學(xué)習(xí)和深度學(xué)習(xí)的關(guān)系
機器學(xué)習(xí)和深度學(xué)習(xí)有什么區(qū)別?

評論