色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)入門:使用Python+Flux+Julia來(lái)實(shí)現(xiàn)手寫數(shù)字識(shí)別

電子設(shè)計(jì) ? 來(lái)源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-11-03 22:02 ? 次閱讀

使用 MNIST 數(shù)據(jù)集對(duì) 0 到 9 之間的數(shù)字進(jìn)行手寫數(shù)字識(shí)別是神經(jīng)網(wǎng)絡(luò)的一個(gè)典型入門教程

該技術(shù)在現(xiàn)實(shí)場(chǎng)景中是很有用的,比如可以把該技術(shù)用來(lái)掃描銀行轉(zhuǎn)帳單或支票,其中帳號(hào)和需要轉(zhuǎn)賬的金額可以被識(shí)別處理并寫在明確定義的方框中。

在本教程中,我們將介紹如何使用 Julia 編程語(yǔ)言和名為 Flux 的機(jī)器學(xué)習(xí)庫(kù)來(lái)實(shí)現(xiàn)這一技術(shù)。為什么使用 Flux 和 Julia?本教程為什么想使用 Flux(https://fluxml.ai/) 和 Julia(https://julialang.org/) ,而不是像 Torch、PyTorch、Keras 或 TensorFlow 2.0 這樣的知名框架呢?一個(gè)很好的原因是因?yàn)?Flux 更易于學(xué)習(xí),而且它提供更好的性能和擁有有更大的潛力,另外一個(gè)原因是,Flux 在仍然是一個(gè)小庫(kù)的情況下實(shí)現(xiàn)了很多功能。Flux 庫(kù)非常小,因?yàn)樗龅拇蟛糠止ぷ鞫际怯?Julia 編程語(yǔ)言本身提供的。例如,如果你查看 Gorgonia ML 庫(kù)(https://github.com/gorgonia/gorgonia) 中的 Go 編程語(yǔ)言,你將看到,它明確地展示了其他機(jī)器學(xué)習(xí)庫(kù)如何構(gòu)建一個(gè)需要執(zhí)行和區(qū)分的表達(dá)式圖。在 Flux 中,這個(gè)圖就是 Julia 本身。Julia 與 LISP 非常相似,因?yàn)?Julia 代碼可以很容易地表示為數(shù)據(jù)結(jié)構(gòu),可以對(duì)其進(jìn)行修改和計(jì)算。機(jī)器學(xué)習(xí)概論如果你是機(jī)器學(xué)習(xí)的新手,你可以跟著本教程來(lái)學(xué)習(xí),但并不是所有的東西對(duì)你來(lái)說(shuō)都是有價(jià)值的。你也可以看看我以前關(guān)于 Medium 的一些文章,它們可能會(huì)解釋你一些新手的疑惑:線性代數(shù)的核心思想。(https://medium.com/@Jernfrost/the-core-idea-of-linear-algebra-7405863d8c1d)線性代數(shù)基本上是關(guān)于向量和矩陣的,這是你在機(jī)器學(xué)習(xí)中經(jīng)常用到的東西。使用引用。(https://medium.com/@Jernfrost/working-with-and-emulating-references-in-julia-e02c1cae5826)它看起來(lái)有點(diǎn)不太好理解,但是如果你想理解像 Flux 這樣的 ML 庫(kù),那么理解 Julia 中的引用是很重要的。Flux 的實(shí)現(xiàn)。(https://medium.com/@Jernfrost/implementation-of-a-modern-machine-learning-library-3596badf3be)如何實(shí)現(xiàn) Flux-ML 庫(kù)的初學(xué)者指南。機(jī)器學(xué)習(xí)簡(jiǎn)介。(https://medium.com/@Jernfrost/machine-learning-for-dummies-in-julia-6cd4d2e71a46) 機(jī)器學(xué)習(xí)概論。簡(jiǎn)單多層感知機(jī)我們要編程的人工神經(jīng)網(wǎng)絡(luò)被稱為簡(jiǎn)單的多層感知機(jī),這是神經(jīng)網(wǎng)絡(luò)(ANN)的基礎(chǔ),大多數(shù)教科書都會(huì)從它開(kāi)始。我先展示整個(gè)程序,然后我們?cè)俑敿?xì)地講解不同的部分。using Flux, Flux.Data.MNIST, Statistics
using Flux: onehotbatch, onecold, crossentropy, throttle
using Base.Iterators: repeated
# Load training data. 28x28 grayscale images of digits
imgs = MNIST.images()
# Reorder the layout of the data for the ANN
imagestrip(image::Matrix{<:Gray}) = Float32.(reshape(image, :))
X = hcat(imagestrip.(imgs)...)
# Target output. What digit each image represents.
labels = MNIST.labels()
Y = onehotbatch(labels, 0:9)
# Defining the model (a neural network)
m = Chain(
Dense(28*28, 32, relu),
Dense(32, 10),
softmax)

loss(x, y) = crossentropy(m(x), y)
dataset = repeated((X, Y), 200)
opt = ADAM()
evalcb = () -> @show(loss(X, Y))
# Perform training on data
Flux.train!(loss, params(m), dataset, opt, cb = throttle(evalcb, 10))
探索輸入數(shù)據(jù)數(shù)據(jù)預(yù)處理通常是數(shù)據(jù)科學(xué)中最大的工作之一。通常情況下,數(shù)據(jù)的組織或格式化方式與將其輸入算法所需的方式不同。我們首先將 MNIST 數(shù)據(jù)集加載為 60000 個(gè) 28x28 像素的灰度圖像:imgs = MNIST.images()
現(xiàn)在,如果你這樣處理數(shù)據(jù),你可能不知道輸出的數(shù)據(jù)是怎么樣子的,但使用 Julia 研究,我們只需檢查一下:julia> size(imgs)
(60000,)
輸出說(shuō)明了 imgs 是一個(gè)包含 60000 個(gè)元素的一維數(shù)組。但這些元素是什么?julia> eltype(imgs)
Array{Gray{FixedPointNumbers.Normed{UInt8,8}},2}
你可能看不懂,但我可以簡(jiǎn)單地告訴你這是什么:julia> eltype(imgs) <: Matrix{T} where T <: Gray
true
這告訴我們 imgs 中的每個(gè)元素都是某種值矩陣,這些值屬于某種類型 T,它是 Gray 類型的子類型。什么是 Gray 類型?我們可以在 Julia 在線文檔中查找:help?> Gray
Gray is a grayscale object. You can extract its value with gray(c).
如果我們想知道這些灰度值矩陣的維數(shù),則可以:julia> size(imgs[1])
(28, 28)
julia> size(imgs[2])
(28, 28)
這告訴我們它們的尺寸為 28x28 像素。我們可以通過(guò)簡(jiǎn)單地繪制其中的一些圖來(lái)進(jìn)一步驗(yàn)證這一點(diǎn)。Julia 的 Plots 庫(kù)使你可以繪制函數(shù)和圖像。julia> using Plots
julia> plot(imgs[2])

但是,你可能會(huì)發(fā)現(xiàn)了解更多的數(shù)據(jù)看起來(lái)是更有用。我們可以很容易地一起繪制幾個(gè)圖像:imgplots = plot.(imgs[1:9])
plot(imgplots...)

現(xiàn)在我們知道了數(shù)據(jù)是什么樣的了。準(zhǔn)備輸入數(shù)據(jù)然而,我們不能像這樣將數(shù)據(jù)輸入到我們的神經(jīng)網(wǎng)絡(luò)(ANN),因?yàn)槊總€(gè)神經(jīng)網(wǎng)絡(luò)輸入必須是列向量,而不是矩陣。這是因?yàn)樯窠?jīng)網(wǎng)絡(luò)期望一個(gè)矩陣作為輸入,矩陣中的每一列都是輸入。ANN 所看到的三乘十矩陣對(duì)應(yīng)于十個(gè)不同的輸入,其中每個(gè)輸入包含三個(gè)不同的值或者更具體地說(shuō)是三個(gè)不同的特征,因此,我們將 28x28 灰度圖像轉(zhuǎn)換為 28x28=784 的長(zhǎng)像素帶。其次,我們的神經(jīng)網(wǎng)絡(luò)并不知道什么是灰度值,它是對(duì)浮點(diǎn)數(shù)據(jù)進(jìn)行操作的,所以我們必須同時(shí)轉(zhuǎn)換數(shù)據(jù)的維度和元素類型。數(shù)組中的列和行數(shù)稱為其形狀。很多人提到了張量,雖然它并不完全精確,但它是一個(gè)涵蓋了標(biāo)量、向量、矩陣、立方體或任何等級(jí)的數(shù)組(基本上是數(shù)組的所有維度)的概念。在 Julia 中,我們可以使用 reshape 函數(shù)來(lái)改變數(shù)組的形狀。下面是一些你如何使用它的例子。這將創(chuàng)建一個(gè)包含四個(gè)元素的列向量 A:julia> A = collect(1:4)
4-element Array{Int64,1}:
1
2
3
4
通過(guò) reshape 我們把它變成一個(gè)二乘二的矩陣 B:julia> B = reshape(A, (2, 2))
2×2 Array{Int64,2}:
1 3
2 4
矩陣可以再次轉(zhuǎn)換為列向量:julia> reshape(B, 4)
4-element Array{Int64,1}:
1
2
3
4
找出一個(gè)列向量到底有多少個(gè)元素是不切實(shí)際的,你可以讓 Julia 只通過(guò)寫來(lái)計(jì)算合適的長(zhǎng)度。julia> reshape(B, :)
4-element Array{Int64,1}:
1
2
3
4
有了這些信息,應(yīng)該更容易看到 imagestrip 函數(shù)的實(shí)際功能了,它將 28x28 的灰度矩陣轉(zhuǎn)換為 784 個(gè) 32 位浮點(diǎn)值的列向量。imagestrip(image::Matrix{<:Gray}) = Float32.(reshape(image, :))
該.符號(hào)用于將函數(shù)應(yīng)用于數(shù)組的每個(gè)元素,因此 Float32.(xs)與 map(Float32, xs)是相同的。接下來(lái),我們將 imagestrip 函數(shù)應(yīng)用于 6 萬(wàn)張灰度圖像中的每一張,生成 784x6000 個(gè)輸入矩陣 X。X = hcat(imagestrip.(imgs)...)
這是如何運(yùn)作的?可以想象為 imagestrip.(imgs)將圖像轉(zhuǎn)換為單個(gè)輸入值的數(shù)組,例如[X?, X?, X?, ..., X?],其中 n = 60,000,每個(gè) X?都是 784 個(gè)浮點(diǎn)值。使用 splat 運(yùn)算符...,我們將其轉(zhuǎn)換為所有這些列向量的水平連接,以產(chǎn)生模型輸入。X = hcat(X?, X?, X?, ..., X?)
如果要驗(yàn)證尺寸,則可以運(yùn)行 size(X)。接下來(lái),我們加載標(biāo)簽。labels = MNIST.labels()
標(biāo)簽是我們稱之為監(jiān)督學(xué)習(xí)中觀察的"答案"部分。在我們的任務(wù)中,標(biāo)簽是從 0 到 9 的數(shù)字。手繪數(shù)字的每一個(gè)圖像都應(yīng)歸類為十個(gè)不同的數(shù)字之一,例如,如果這是一個(gè)包含不同花卉品種的花瓣長(zhǎng)度和花瓣寬度的虹膜數(shù)據(jù)集,那么該品種的名稱就是標(biāo)簽。X?代表我們所有的特征向量,用機(jī)器學(xué)習(xí)的術(shù)語(yǔ)來(lái)說(shuō),每個(gè)像素的灰度值都是一個(gè)特征。你可以將標(biāo)簽與我們繪制的圖像進(jìn)行比較。imgplots = plot.(imgs[1:9])
plot(imgplots...)
labels[1:9]
獨(dú)熱編碼每個(gè)圖像一個(gè)標(biāo)簽,則有 60000 個(gè)標(biāo)簽,然而神經(jīng)網(wǎng)絡(luò)不能直接輸出標(biāo)簽。例如,如果你正試圖對(duì)貓和狗的圖像進(jìn)行分類,那么一個(gè)網(wǎng)絡(luò)不能輸出字符串“dog”或“cat”,因?yàn)樗鞘褂酶↑c(diǎn)值的。如果標(biāo)簽是一個(gè)不一定有用的數(shù)字,例如如果輸出是一系列郵政編碼,那么將 3000 的郵政編碼視為 1500 的郵政編碼的兩倍是沒(méi)有意義的,同樣,當(dāng)使用神經(jīng)網(wǎng)絡(luò)從圖像中預(yù)測(cè)數(shù)字時(shí),4 的大小是 2 的兩倍并不重要,數(shù)字也可能是字母,因此它們的值不重要。我們?cè)跈C(jī)器學(xué)習(xí)中處理這個(gè)問(wèn)題的方法是使用所謂的獨(dú)熱編碼,這意味著,如果我們有標(biāo)簽 A、B 和 C,并且我們想用獨(dú)熱編碼來(lái)表示它們,那么 A 是[1、0、0],B 是[0、1、0],C 是[0、0、1]。這看起來(lái)很浪費(fèi)空間,但在 Julia one hot 數(shù)組內(nèi)部,它只跟蹤元素的索引,并不保存所有的零。下面是一些正在使用的編碼示例:julia> Flux.onehot('B', ['A', 'B', 'C'])
3-element Flux.OneHotVector:
0
1
0
julia> Flux.onehot("foo", ["foo", "bar", "baz"])
3-element Flux.OneHotVector:
1
0
0
但是,我們不會(huì)使用 onehot 函數(shù),因?yàn)槲覀冋趧?chuàng)建一批獨(dú)熱編碼標(biāo)簽,我們將把 60000 張圖片作為一個(gè)批次來(lái)處理。機(jī)器學(xué)習(xí)的批次指的是在我們模型(神經(jīng)網(wǎng)絡(luò))的權(quán)值或參數(shù)更新之前必須完成的最小樣本數(shù)量。Y = onehotbatch(labels, 0:9)
這將創(chuàng)建目標(biāo)輸出。在理想情況下,模型(X)==Y,但在現(xiàn)實(shí)中,即使經(jīng)過(guò)模型的訓(xùn)練,也會(huì)有一些偏差。我們已經(jīng)討論完數(shù)據(jù)準(zhǔn)備,現(xiàn)在讓我們用人工神經(jīng)網(wǎng)絡(luò)來(lái)構(gòu)造我們的模型。構(gòu)造神經(jīng)網(wǎng)絡(luò)模型模型是真實(shí)世界的簡(jiǎn)化表示,就像我們可以建立簡(jiǎn)化的物理模型一樣,我們也可以用數(shù)學(xué)或代碼來(lái)創(chuàng)建物理世界的模型,現(xiàn)實(shí)中存在許多這樣的數(shù)學(xué)模型。例如,統(tǒng)計(jì)模型可以使用統(tǒng)計(jì)數(shù)據(jù)來(lái)模擬人們一天中是如何到達(dá)商店的。一般來(lái)說(shuō),人們會(huì)以一種遵循特定概率分布的方式到達(dá)。在我們的例子中,我們?cè)噲D用神經(jīng)網(wǎng)絡(luò)來(lái)模擬現(xiàn)實(shí)世界中的一些東西,當(dāng)然,這只是對(duì)現(xiàn)實(shí)世界的一種近似。當(dāng)我們建立一個(gè)神經(jīng)網(wǎng)絡(luò)時(shí),我們有很多可以玩的東西。網(wǎng)絡(luò)是由多個(gè)層連接而成的,每一層通常都有一個(gè)激活函數(shù)。建立一個(gè)神經(jīng)網(wǎng)絡(luò)的挑戰(zhàn)是選擇合適的層和激活函數(shù),并決定每層應(yīng)該有多少個(gè)節(jié)點(diǎn)。我們的模型非常簡(jiǎn)單,定義如下:m = Chain(
Dense(28^2, 32, relu),
Dense(32, 10),
softmax)
這是一個(gè)三層的神經(jīng)網(wǎng)絡(luò)。Chain 用于將各個(gè)層連接在一起。第一層 Dense(28^2, 32, relu)有 784(28x28)個(gè)輸入節(jié)點(diǎn),對(duì)應(yīng)于每個(gè)圖像中的像素?cái)?shù)。它使用校正線性單元(ReLU)函數(shù)作為激活函數(shù)。在經(jīng)典的神經(jīng)網(wǎng)絡(luò)文獻(xiàn)中,通常會(huì)介紹 sigmoid 和 tanh。relu 等激活函數(shù),這些激活函數(shù)在大多數(shù)情況下都工作得很好,包括圖像的分類。下一層是我們的隱藏層,它接受 32 個(gè)輸入,因?yàn)榍耙粚佑?32 個(gè)輸出,隱藏節(jié)點(diǎn)的數(shù)量沒(méi)有明確的對(duì)錯(cuò)選擇。但輸出的數(shù)量根據(jù)不同任務(wù)是不一樣的,因?yàn)槲覀兿M總€(gè)數(shù)字有一個(gè)輸出,這也就是“獨(dú)熱編碼”發(fā)揮作用的地方。Softmax 函數(shù)最后一層,是 softmax 函數(shù),它以前一層的輸出的矩陣作為輸入,并沿著每一列進(jìn)行歸一化。標(biāo)準(zhǔn)化將 60000 列中的每一列轉(zhuǎn)換為概率分布。那到底是什么意思?概率是 0 到 1 之間的值,0 表示事件永遠(yuǎn)不會(huì)發(fā)生,1 是肯定會(huì)發(fā)生。與 min-max 歸一化一樣,softmax 將所有輸入歸一化為 0 到 1 之間的值,但是與 min max 不同的是它會(huì)確保所有值的和為一。這需要一些例子來(lái)說(shuō)明。假設(shè)我創(chuàng)建了 10 個(gè)從 1 到 10 的隨機(jī)值,我們可以放任意范圍和任意數(shù)量的值。julia> ys = rand(1:10, 10)
10-element Array{Int64,1}:
9
6
10
5
10
2
6
6
7
9
現(xiàn)在讓我們使用不同的歸一化函數(shù)歸一化這個(gè)數(shù)組,我們將使用來(lái)自 LinearAlgebra 模塊的 normalize,因?yàn)樗c Julia 捆綁在一起。但首先使用 softmax:julia> softmax(ys)
10-element Array{Float64,1}:
0.12919082661651196
0.006432032517257137
0.3511770763952676
0.002366212528045101
0.3511770763952676
0.00011780678490667763
0.006432032517257137
0.006432032517257137
0.017484077111717768
0.12919082661651196
如你所見(jiàn),所有值都在 0 到 1 之間。現(xiàn)在看一下如果我們把它們加起來(lái)會(huì)發(fā)生什么:julia> sum(softmax(ys))
0.9999999999999999
它們基本上變成了 1。現(xiàn)在將其與 normalize 的功能進(jìn)行對(duì)比:julia> using LinearAlgebra
julia> normalize(ys)
10-element Array{Float64,1}:
0.38446094597254243
0.25630729731502827
0.4271788288583805
0.21358941442919024
0.4271788288583805
0.0854357657716761
0.25630729731502827
0.25630729731502827
0.2990251802008663
0.38446094597254243
julia> sum(normalize(ys))
2.9902518020086633
julia> norm(normalize(ys))
1.0
julia> norm(softmax(ys))
0.52959100847191
如果對(duì)用 normalize 歸一化的值求和,它們只會(huì)得到一些隨機(jī)值,然而如果我們把結(jié)果反饋給 norm,我們得到的結(jié)果正好是 1.0。不同之處在于,normalize 將向量中的值進(jìn)行了歸一化,以便它們可以表示單位向量,即長(zhǎng)度正好為一的向量。norm 給出向量的大小。相比之下,softmax 不會(huì)將這些值視為向量,而是將其視為概率分布,每個(gè)元素表示輸入圖像為該數(shù)字的概率。假設(shè)我們有 A,B 和 C 的圖像作為輸入,如果你從 softmax 得到一個(gè)輸出值是[0.1,0.7,0.2],那么輸入圖像有 10%的可能性是 A 的圖形,有 70%的可能性是 B 的圖形,最后有 20%的可能性是 C 的圖形。這就是為什么我們希望 softmax 作為最后一層的原因。用神經(jīng)網(wǎng)絡(luò)不能絕對(duì)確定輸入圖像是什么,但是我們可以給出一個(gè)概率分布,它表示更有可能是哪個(gè)數(shù)字。定義損失函數(shù)當(dāng)訓(xùn)練我們的神經(jīng)網(wǎng)絡(luò)(模型)給出準(zhǔn)確的預(yù)測(cè)時(shí),我們需要定義人工神經(jīng)網(wǎng)絡(luò)(ANN)的評(píng)估指標(biāo)。為此,我們使用所謂的損失函數(shù)。損失函數(shù)有很多名字,20 年前當(dāng)我被教授神經(jīng)網(wǎng)絡(luò)時(shí),我們?cè)Q之為誤差函數(shù),也有人稱之為成本函數(shù)。然而,歸根結(jié)底,這是一種表達(dá)我們的預(yù)測(cè)與現(xiàn)實(shí)相比有多正確的方式。loss(x, y) = crossentropy(m(x), y)
訓(xùn)練神經(jīng)網(wǎng)絡(luò)實(shí)際上是最小化這個(gè)函數(shù)的輸出,所以這是一個(gè)優(yōu)化問(wèn)題。訓(xùn)練是一個(gè)反復(fù)調(diào)整模型中參數(shù)(權(quán)重)的過(guò)程,直到損失函數(shù)的輸出變低,或者換句話說(shuō),直到我們的預(yù)測(cè)誤差變低。均方誤差函數(shù)(MSE)是計(jì)算預(yù)測(cè)錯(cuò)誤程度的經(jīng)典方法,這就意味著取差的平方,然而,MSE 更適合于線性回歸(將一條或多條直線擬合到某些觀測(cè)值)。在這種情況下,我們改用交叉熵函數(shù)。當(dāng)你的最后一層是 softmax,進(jìn)行分類而不是線性回歸時(shí),這是我比較推薦的選擇。指定 Epoch 在機(jī)器學(xué)習(xí)術(shù)語(yǔ)中,Epoch 是訓(xùn)練算法進(jìn)行一次完整的迭代,換句話說(shuō):一個(gè) Epoch 處理一個(gè)批次并更新權(quán)重因此,如果我們使用 10 個(gè) Epoch 來(lái)進(jìn)行訓(xùn)練,那么模型的參數(shù) / 權(quán)重將更新 / 調(diào)整 10 次。為了得到 200 個(gè) Epoch,我們使用 repeat 重復(fù)我們的批處理 200 次。它實(shí)際上不會(huì)重復(fù)我們的數(shù)據(jù) 200 次,它只是用迭代器創(chuàng)建了這樣的錯(cuò)覺(jué)。dataset = repeated((X, Y), 200)
在數(shù)據(jù)集中,我們得到的數(shù)組如下:dataset = [(X1, Y1), (X2, Y2), ..., (X200, Y200)]
優(yōu)化器最常見(jiàn)和最著名的訓(xùn)練神經(jīng)網(wǎng)絡(luò)策略是梯度下降算法,這是由 Julia 中的 Descent 類型提供的。然而,在我們的例子中,當(dāng)我們處理大量帶有相當(dāng)數(shù)量噪聲的數(shù)據(jù)時(shí),建議改用 ADAM 優(yōu)化器,這就是所謂的隨機(jī)優(yōu)化。opt = ADAM()
進(jìn)行訓(xùn)練我們終于可以進(jìn)行訓(xùn)練了,但我們希望在訓(xùn)練進(jìn)行的過(guò)程中得到一些反饋。我們定義了一個(gè)回調(diào)函數(shù),在每次迭代(epoch)時(shí),它將輸出 loss 函數(shù)的值,從而顯示錯(cuò)誤。我們希望每次迭代時(shí)都能看到這個(gè)錯(cuò)誤。evalcb = () -> @show(loss(X, Y))
觀察錯(cuò)誤發(fā)展的一個(gè)有用的地方是,你可以看到是否有振蕩。人工神經(jīng)網(wǎng)絡(luò)過(guò)快地朝著最低值過(guò)渡,會(huì)導(dǎo)致它朝相反的方向移動(dòng),如果速度太快,則會(huì)向相反的方向超調(diào),振蕩會(huì)變得更加劇烈,直到誤差變?yōu)闊o(wú)窮大。這是一個(gè)切換優(yōu)化算法或降低學(xué)習(xí)率的提示。不管怎樣,這就是你訓(xùn)練的方式。注意,回調(diào)是可選的:Flux.train!(loss, params(m), dataset, opt, cb = throttle(evalcb, 10))
評(píng)價(jià)模型預(yù)測(cè)精度經(jīng)過(guò)訓(xùn)練后,我們可以測(cè)試模型在預(yù)測(cè)方面的表現(xiàn)。我們定義了這樣一個(gè)函數(shù):accuracy(x, y) = mean(onecold((m(x))) .== onecold(y))
然后我們用輸入數(shù)據(jù)和標(biāo)簽作為輸入?yún)?shù)來(lái)調(diào)用它:@show accuracy(X, Y)
至于什么是 onecold?在某種程度上,它與 onehot 實(shí)現(xiàn)的效果是相反的。我們的輸出 m(X)都是概率分布,而我們的目標(biāo) Y 都是獨(dú)熱向量。它們不能直接比較,所以我們需要使用 onecold 來(lái)做一個(gè)轉(zhuǎn)換。給定概率分布,它選擇最可能的候選:julia> onecold([0.1, 0.7, 0.2])
2
julia> onecold([0.9, 0.05, 0.05])
1
因此,使用 onecold(m(X))我們可以得到預(yù)測(cè)的標(biāo)簽,這可以與實(shí)際的標(biāo)簽 onecold(y)進(jìn)行比較。用測(cè)試數(shù)據(jù)驗(yàn)證模型到目前為止,我們只根據(jù)我們使用的訓(xùn)練數(shù)據(jù)來(lái)驗(yàn)證了我們的模型,然而,如果該模型不適用于新的數(shù)據(jù),它將是完全無(wú)用的。因此,在訓(xùn)練網(wǎng)絡(luò)時(shí),我們通常將數(shù)據(jù)分為訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)。測(cè)試數(shù)據(jù)不是訓(xùn)練的一部分,只有在訓(xùn)練完成后才能進(jìn)行測(cè)試。tX = hcat(float.(reshape.(MNIST.images(:test), :))...)
tY = onehotbatch(MNIST.labels(:test), 0:9)
@show accuracy(tX, tY)
最后我希望這能幫助你理解建立神經(jīng)網(wǎng)絡(luò)的過(guò)程。太多的教程傾向于跳過(guò)向初學(xué)者解釋的內(nèi)容,從而所有的新概念都會(huì)很快變得令人困惑。我希望這為初學(xué)者在進(jìn)一步探索機(jī)器學(xué)習(xí)之前提供了一個(gè)起點(diǎn),特別是基于 Julia 的機(jī)器學(xué)習(xí),因?yàn)槲艺J(rèn)為 Julia 有著光明的未來(lái)。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4771

    瀏覽量

    100719
  • 數(shù)字識(shí)別
    +關(guān)注

    關(guān)注

    2

    文章

    19

    瀏覽量

    10140
  • python
    +關(guān)注

    關(guān)注

    56

    文章

    4792

    瀏覽量

    84628
  • FLUX
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    5716
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    使用Python卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像識(shí)別的基本步驟

    Python 卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像識(shí)別領(lǐng)域具有廣泛的應(yīng)用。通過(guò)使用卷積神經(jīng)網(wǎng)絡(luò),我們可以讓計(jì)算機(jī)從圖像中學(xué)習(xí)特征,從而實(shí)現(xiàn)對(duì)圖像的分
    的頭像 發(fā)表于 11-20 11:20 ?6098次閱讀

    【PYNQ-Z2申請(qǐng)】基于PYNQ-Z2的神經(jīng)網(wǎng)絡(luò)圖形識(shí)別

    對(duì)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí),講解其工作原理。4.基于PYNQ-Z2,用python實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)。5.訓(xùn)練和測(cè)試神經(jīng)網(wǎng)絡(luò),完成
    發(fā)表于 01-09 14:48

    【PYNQ-Z2試用體驗(yàn)】神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)

    前言前面我們通過(guò)notebook,完成了在PYNQ-Z2開(kāi)發(fā)板上編寫并運(yùn)行python程序。我們的最終目的是基于神經(jīng)網(wǎng)絡(luò),完成手寫數(shù)字識(shí)別
    發(fā)表于 03-03 22:10

    【PYNQ-Z2試用體驗(yàn)】基于PYNQ-Z2的神經(jīng)網(wǎng)絡(luò)圖形識(shí)別[結(jié)項(xiàng)]

    前言前面我們簡(jiǎn)單講解了神經(jīng)網(wǎng)絡(luò)的基本概念和工作原理,接下來(lái),將通過(guò)具體的python代碼來(lái)完成基于神經(jīng)網(wǎng)絡(luò)的圖形識(shí)別。這里使用
    發(fā)表于 03-18 21:51

    人工神經(jīng)網(wǎng)絡(luò)手寫數(shù)字識(shí)別系統(tǒng)的詳細(xì)資料概述

    逼近未知非線性對(duì)象的特點(diǎn),使其為手寫數(shù)字識(shí)別提供了一種新的方法。本論文采用一編制了一套基于神經(jīng)網(wǎng)絡(luò)手寫
    發(fā)表于 05-27 08:00 ?18次下載
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>手寫</b><b class='flag-5'>數(shù)字</b><b class='flag-5'>識(shí)別</b>系統(tǒng)的詳細(xì)資料概述

    谷歌向神經(jīng)網(wǎng)絡(luò)手寫數(shù)字識(shí)別發(fā)起挑戰(zhàn),竟用量子計(jì)算識(shí)別

    神經(jīng)網(wǎng)絡(luò)做 MNIST 手寫數(shù)字識(shí)別是機(jī)器學(xué)習(xí)小白用來(lái)練手的入門項(xiàng)目,業(yè)內(nèi)最佳準(zhǔn)確率已經(jīng)達(dá)到了 99.84%。但最近,谷歌向這個(gè)「古老」的
    的頭像 發(fā)表于 08-17 17:17 ?1633次閱讀
    谷歌向<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>手寫</b><b class='flag-5'>數(shù)字</b><b class='flag-5'>識(shí)別</b>發(fā)起挑戰(zhàn),竟用量子計(jì)算<b class='flag-5'>識(shí)別</b>

    使用PyhonFluxJulia實(shí)現(xiàn)手寫數(shù)字識(shí)別神經(jīng)網(wǎng)絡(luò)入門教程

    使用 MNIST 數(shù)據(jù)集對(duì) 0 到 9 之間的數(shù)字進(jìn)行手寫數(shù)字識(shí)別神經(jīng)網(wǎng)絡(luò)的一個(gè)典型入門教程。
    發(fā)表于 12-08 00:23 ?7次下載

    Python從頭實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)理解神經(jīng)網(wǎng)絡(luò)的原理1

    有個(gè)事情可能會(huì)讓初學(xué)者驚訝:神經(jīng)網(wǎng)絡(luò)模型并不復(fù)雜!『神經(jīng)網(wǎng)絡(luò)』這個(gè)詞讓人覺(jué)得很高大上,但實(shí)際上神經(jīng)網(wǎng)絡(luò)算法要比人們想象的簡(jiǎn)單。 這篇文章完全是為新手準(zhǔn)備的。我們會(huì)通過(guò)用Python
    的頭像 發(fā)表于 02-27 15:05 ?688次閱讀
    用<b class='flag-5'>Python</b>從頭<b class='flag-5'>實(shí)現(xiàn)</b>一個(gè)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>來(lái)</b>理解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理1

    Python從頭實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)理解神經(jīng)網(wǎng)絡(luò)的原理2

    有個(gè)事情可能會(huì)讓初學(xué)者驚訝:神經(jīng)網(wǎng)絡(luò)模型并不復(fù)雜!『神經(jīng)網(wǎng)絡(luò)』這個(gè)詞讓人覺(jué)得很高大上,但實(shí)際上神經(jīng)網(wǎng)絡(luò)算法要比人們想象的簡(jiǎn)單。 這篇文章完全是為新手準(zhǔn)備的。我們會(huì)通過(guò)用Python
    的頭像 發(fā)表于 02-27 15:06 ?619次閱讀
    用<b class='flag-5'>Python</b>從頭<b class='flag-5'>實(shí)現(xiàn)</b>一個(gè)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>來(lái)</b>理解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理2

    Python從頭實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)理解神經(jīng)網(wǎng)絡(luò)的原理3

    有個(gè)事情可能會(huì)讓初學(xué)者驚訝:神經(jīng)網(wǎng)絡(luò)模型并不復(fù)雜!『神經(jīng)網(wǎng)絡(luò)』這個(gè)詞讓人覺(jué)得很高大上,但實(shí)際上神經(jīng)網(wǎng)絡(luò)算法要比人們想象的簡(jiǎn)單。 這篇文章完全是為新手準(zhǔn)備的。我們會(huì)通過(guò)用Python
    的頭像 發(fā)表于 02-27 15:06 ?724次閱讀
    用<b class='flag-5'>Python</b>從頭<b class='flag-5'>實(shí)現(xiàn)</b>一個(gè)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>來(lái)</b>理解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理3

    Python從頭實(shí)現(xiàn)一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)理解神經(jīng)網(wǎng)絡(luò)的原理4

    有個(gè)事情可能會(huì)讓初學(xué)者驚訝:神經(jīng)網(wǎng)絡(luò)模型并不復(fù)雜!『神經(jīng)網(wǎng)絡(luò)』這個(gè)詞讓人覺(jué)得很高大上,但實(shí)際上神經(jīng)網(wǎng)絡(luò)算法要比人們想象的簡(jiǎn)單。 這篇文章完全是為新手準(zhǔn)備的。我們會(huì)通過(guò)用Python
    的頭像 發(fā)表于 02-27 15:06 ?681次閱讀
    用<b class='flag-5'>Python</b>從頭<b class='flag-5'>實(shí)現(xiàn)</b>一個(gè)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>來(lái)</b>理解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理4

    手寫數(shù)字識(shí)別神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)(1)

    對(duì)MNIST數(shù)據(jù)集使用2層神經(jīng)網(wǎng)絡(luò)(1層隱藏層)實(shí)現(xiàn)
    的頭像 發(fā)表于 06-23 16:57 ?568次閱讀
    <b class='flag-5'>手寫</b><b class='flag-5'>數(shù)字</b><b class='flag-5'>識(shí)別</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的<b class='flag-5'>實(shí)現(xiàn)</b>(1)

    手寫數(shù)字識(shí)別神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)(2)

    在練習(xí)二中,手寫數(shù)字識(shí)別使用數(shù)值微分的方式實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò),現(xiàn)在用誤差反向傳播法來(lái)
    的頭像 發(fā)表于 06-23 16:57 ?697次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)python代碼

    卷積神經(jīng)網(wǎng)絡(luò)python代碼 ; 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是一種可以在圖像處理和語(yǔ)音識(shí)別等領(lǐng)域中很好地應(yīng)用的
    的頭像 發(fā)表于 08-21 16:41 ?1021次閱讀

    神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別領(lǐng)域的應(yīng)用日益廣泛。神經(jīng)網(wǎng)絡(luò)以其強(qiáng)大的特征提取和分類能力,為圖像識(shí)別帶來(lái)了革命性的進(jìn)步。本文將詳細(xì)介紹
    的頭像 發(fā)表于 07-01 14:19 ?671次閱讀
    主站蜘蛛池模板: 国产一区精选播放022| 亚洲高清中文字幕| 大桥未久电影在线观看| 欧美人与动牲交ZOOZ特| CHINA中国东北GURMA| 欧美506070| mm625亚洲人成电影网| 欧美一级久久久久久久久大| 99热久久这里只有精品| 欧美人与禽zoz0性伦交app| AV无码久久无遮挡国产麻豆| 青青草AV国产精品| 草莓视频免费在线观看| 日日噜噜噜噜夜夜爽亚洲精品| 调教美丽的白丝袜麻麻视频| 思思久99久女女精品| 国产精品嫩草影院| 亚洲精品成人无码A片在线| 健身房被教练啪到腿软H | 国语自产拍在线视频普通话| 亚洲精品m在线观看| 久久精品一区| 91夫妻交友论坛| 欧美在线激情| 高中生被C到爽哭视频免费| 外女思春台湾三级| 果冻传媒在线观看高清完整免费 | 久久久久久久伊人电影| 最近最新的日本字幕MV| 欧美Av无码高清在线| 都市妖奇谈有声| 亚洲国产成人综合| 久久午夜免费视频| 99久免费精品视频在线观看2| 日本妈妈JMZZZZZ| 国产精品日本一区二区在线播放| 亚洲精品无码成人AAA片| 2021自产拍在线观看视频| 女同志videos最新另| 芳草地在线观看免费观看| 亚洲国产av|