色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度學(xué)習(xí)模型常用的數(shù)據(jù)增強(qiáng)方法

汽車玩家 ? 來(lái)源:CSDN博主 ? 作者:csuzhaoqinghui ? 2020-01-19 17:03 ? 次閱讀

數(shù)據(jù)增強(qiáng)(Data Augmentation)

人工智能,或者說(shuō)計(jì)算機(jī)視覺(jué)的一個(gè)最終目標(biāo)在于構(gòu)建一個(gè)真正可適用于真實(shí)世界復(fù)雜環(huán)境的系統(tǒng)。而就目前所應(yīng)用的機(jī)器學(xué)習(xí)系統(tǒng)而言,大部分采用了有監(jiān)督的學(xué)習(xí)方法,也必然導(dǎo)致了需要廣泛收集圖像樣本,并進(jìn)行對(duì)應(yīng)的圖像標(biāo)注的工作。而人力時(shí)有窮盡,高質(zhì)量的樣本集圖片又是構(gòu)建一個(gè)優(yōu)秀的機(jī)器學(xué)習(xí)系統(tǒng)的關(guān)鍵因素。使用適當(dāng)?shù)臄?shù)據(jù)增強(qiáng)方法可以將數(shù)據(jù)集的數(shù)量增大十倍以上,從而極大化利用小樣本集中的每個(gè)樣本,使之也可以訓(xùn)練得到一個(gè)較好的機(jī)器學(xué)習(xí)模型。數(shù)據(jù)增強(qiáng)方法也可以提高模型的魯棒性,防止其易在訓(xùn)練中出現(xiàn)過(guò)擬合的現(xiàn)象。

常用的數(shù)據(jù)增強(qiáng)方法主要來(lái)自數(shù)字圖像處理中的幾何變換,但不改變圖像中的像素值,而是改變了其空間位置,借此希望卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到圖像中更多的不變性特征,也有利于提高其泛化性能。

以下將對(duì)各種方法做簡(jiǎn)單的列舉與說(shuō)明。

平移(Shift)變換:對(duì)原始圖片在圖像平面內(nèi)以某種方式(預(yù)先定義或者隨機(jī)方式確定平移的步長(zhǎng)、范圍及其方向)進(jìn)行平移。

翻轉(zhuǎn)(Flip)變換:沿豎直或者水平方向?qū)υ紙D片進(jìn)行翻轉(zhuǎn)。

隨機(jī)裁剪(Random Crop):隨機(jī)定義感興趣區(qū)域以裁剪圖像,相當(dāng)于增加隨機(jī)擾動(dòng)。

噪聲擾動(dòng)(Noise):對(duì)圖像隨機(jī)添加高斯噪聲或者椒鹽噪聲等。

對(duì)比度變換(Contrast):改變圖像對(duì)比度,相當(dāng)于在HSV空間中,保持色調(diào)分量H不變,而改變亮度分量V和飽和度S,用于模擬現(xiàn)實(shí)環(huán)境的光照變化。

縮放變換(Zoom):以設(shè)定的比例縮小或者放大圖像。

尺度變換(Scale):與縮放變換有點(diǎn)類似,不過(guò)尺度變換的對(duì)象是圖像內(nèi)容而非圖像本身(可以參考SIFT特征提取方法),構(gòu)建圖像金字塔以得到不同大小、模糊程度的圖像。

權(quán)重初始化(weight initialization)

傳統(tǒng)神經(jīng)網(wǎng)絡(luò)之所以一直沒(méi)辦法加深網(wǎng)絡(luò)的深度,一個(gè)很重要的原因在于使用隨機(jī)梯度下降法訓(xùn)練時(shí),隨著訓(xùn)練迭代過(guò)程的深入會(huì)出現(xiàn)梯度彌散的現(xiàn)象,也就導(dǎo)致了神經(jīng)網(wǎng)絡(luò)無(wú)法有效地從樣本中進(jìn)行學(xué)習(xí)。而造成梯度彌散的一部分原因應(yīng)該歸結(jié)于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)使用了權(quán)重隨機(jī)初始化。

而現(xiàn)代深度神經(jīng)網(wǎng)絡(luò)拋棄了隨機(jī)初始化的方法,轉(zhuǎn)而使用高斯初始化、 Xavier算法等來(lái)解決這一問(wèn)題。

所謂的高斯初始化方法是指隨機(jī)選取一個(gè)固定均值(如0等)和固定方差(如0.01等)的高斯分布中的值作為網(wǎng)絡(luò)各個(gè)神經(jīng)元的權(quán)重參數(shù)的初值,從而保證權(quán)重參數(shù)訓(xùn)練開(kāi)始時(shí)符合高斯分布,以期獲得更好的結(jié)果。這是一種常用的權(quán)重初始化方法。

Xavier算法是Glorot于2010年提出的權(quán)值初始化方法。相比與隨機(jī)初始化或者高斯初始化方法中的隨機(jī)選取,Xavier算法為每一個(gè)深度神經(jīng)網(wǎng)絡(luò)的初始權(quán)值進(jìn)行了個(gè)性定制,因?yàn)樗歉鶕?jù)輸入輸出神經(jīng)元的個(gè)數(shù)來(lái)進(jìn)行權(quán)重的初始化。該算法假設(shè)對(duì)于一個(gè)網(wǎng)絡(luò)有n個(gè)線性神經(jīng)元,其初始權(quán)值為W,網(wǎng)絡(luò)輸出為Y,即:

Y=W_1 X_1+W_2 X_2+?+ W_n X_n (1-1)

計(jì)算每個(gè)神經(jīng)元輸出的方差如下:

Var(W_i X_i )=E[X_i ]^2 Var(W_i )+E[W_i ]^2 Var(X_i ) + Var(W_i )Var(X_i ) (1-2)

假設(shè)所有輸入權(quán)重的均值為0,上述公式可以簡(jiǎn)化如下:

Var(W_i X_i )= Var(W_i )Var(X_i ) (1-3)

同時(shí)假設(shè)Xi和Wi都是獨(dú)立同分布的,可得輸出Y的方差:

Var(Y)=Var(W_1 X_1+W_2 X_2+?+ W_n X_n )=nVar(W_i )Var(X_i ) (1-4)

故如果我們要求輸出分布要與輸入的分布一樣,則nVar(Wi)的值應(yīng)為1。

盡管算法中使用了諸多假設(shè),可是在實(shí)際應(yīng)用過(guò)程中取得了良好的效果。直觀上來(lái)講,對(duì)原始的Xavier算法來(lái)說(shuō),假設(shè)輸入的均值為0對(duì)于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)是合理的。因?yàn)槠涑跏蓟瘜又笫欠蔷€性激活層(tanh,sigmoid等)中的激活函數(shù)在0值附近的梯度值最大。而對(duì)于現(xiàn)代深度神經(jīng)網(wǎng)絡(luò)而言,由于其線性整流單元(ReLU)對(duì)于輸入的響應(yīng)有一半為0,故He等提出以下公式作為替代。

Var(W_i )=2/n_in (1-8)

隨機(jī)梯度下降法(Stochastic Gradient descent)

梯度下降法(Gradient descent)是當(dāng)前最為受歡迎的優(yōu)化算法之一,也是最常用的深度神經(jīng)網(wǎng)絡(luò)優(yōu)化方法。它通過(guò)沿著當(dāng)前函數(shù)點(diǎn)所對(duì)應(yīng)的梯度的反方向進(jìn)行迭代搜索,從而找到目標(biāo)函數(shù)的極值點(diǎn)。許多學(xué)者對(duì)其提出了改進(jìn)算法。

標(biāo)準(zhǔn)梯度下降法可以表征為:

θ(t+1)=θ_t- η?θ E(L(θ_t) (1-9)

其中η為每次迭代的學(xué)習(xí)率,L(θ)為目標(biāo)函數(shù)。E[L(θ)]整個(gè)數(shù)據(jù)集的數(shù)學(xué)期望。

標(biāo)準(zhǔn)梯度下降法要求在每次迭代的時(shí)候都要計(jì)算整個(gè)數(shù)據(jù)集的梯度方向。它可以保證凸目標(biāo)函數(shù)可以收斂到全局最小點(diǎn),而對(duì)于非凸目標(biāo)函數(shù)至少可以收斂到局部極值點(diǎn)。近幾十年來(lái),樣本數(shù)據(jù)的增長(zhǎng)速度遠(yuǎn)遠(yuǎn)大于處理器的計(jì)算能力的增長(zhǎng)。從這個(gè)角度上來(lái)說(shuō),統(tǒng)計(jì)機(jī)器學(xué)習(xí)方法的局限在于計(jì)算能力而不在于樣本量的大小。對(duì)于小樣本學(xué)習(xí)中標(biāo)準(zhǔn)梯度下降法是適用的,但是應(yīng)用于大數(shù)據(jù)集時(shí)是極其緩慢的,整個(gè)數(shù)據(jù)集無(wú)法一次性裝載進(jìn)內(nèi)存中的情況越來(lái)越普遍。因此標(biāo)準(zhǔn)梯度下降法無(wú)法勝任于現(xiàn)代大規(guī)模數(shù)據(jù)的優(yōu)化任務(wù),此時(shí)隨機(jī)梯度下降法 (stochastic gradient descent, SGD)的應(yīng)用效果要遠(yuǎn)遠(yuǎn)好于標(biāo)準(zhǔn)梯度下降法。

相比于計(jì)算整個(gè)數(shù)據(jù)集的梯度方向,隨機(jī)梯度下降法(SGD)以從訓(xùn)練集中隨機(jī)選取的單個(gè)樣本來(lái)估計(jì)目標(biāo)梯度,以迭代更新參數(shù)θ。

θ(t+1)=θ_t- η_t ?θ L(θ_t;x^((t) ),y^((t) )) (1-10)

在實(shí)際應(yīng)用過(guò)程中,每次的參數(shù)更新并不是根據(jù)單個(gè)樣本計(jì)算的,而是由所定義的最小批量樣本(mini-batch)來(lái)計(jì)算的。這可以降低單個(gè)樣本參數(shù)更新的劇烈波動(dòng)并使收斂過(guò)程更加穩(wěn)定。由于采用批量樣本并不能完全代表數(shù)據(jù)集的梯度方向,其參數(shù)更新的波動(dòng)也是無(wú)可避免的。但是這種波動(dòng)一定程度上使其能夠跳轉(zhuǎn)到潛在的更好的局部極小點(diǎn),并且最終到達(dá)全局最小點(diǎn)。盡管理論上,隨機(jī)梯度下降法(SGD)可以漸進(jìn)收斂,但是在實(shí)際應(yīng)用過(guò)程中仍有許多挑戰(zhàn)。

首先,收斂的速度取決于學(xué)習(xí)率η,一個(gè)合適的學(xué)習(xí)率并不是那么容易確定的。如果學(xué)習(xí)率太小會(huì)導(dǎo)致收斂過(guò)程極其緩慢,而過(guò)大的學(xué)習(xí)率η將會(huì)阻礙模型收斂并導(dǎo)致目標(biāo)函數(shù)在最小值附近波動(dòng)甚至發(fā)散。其次,對(duì)于神經(jīng)網(wǎng)絡(luò)這種高度非線性任務(wù)而言,其目標(biāo)函數(shù)通常都有大量的次優(yōu)局部極小點(diǎn),為保證收斂到全局最小點(diǎn)需要避免訓(xùn)練過(guò)程陷入局部極小點(diǎn)中。

對(duì)于學(xué)習(xí)率或者學(xué)習(xí)策略的選擇,可以參考以下方法:

- 選取一個(gè)足夠小的,在第一次迭代中可以收斂的常數(shù)值(或選取兩個(gè)取其均值),如果收斂速度有所下降,取η/2作為新的學(xué)習(xí)率;

- 在每次迭代之后引入評(píng)估機(jī)制,當(dāng)兩次迭代間的變化小于某個(gè)設(shè)定閾值時(shí)減小學(xué)習(xí)率。

為了避免訓(xùn)練陷入局部極小點(diǎn),Qian等提出了基于動(dòng)量(momentum)的梯度下降學(xué)習(xí)算法,通過(guò)增加歷史參數(shù)更新的權(quán)重項(xiàng),加速當(dāng)前參數(shù)更新的過(guò)程并減少振蕩。

ν(t+1)=〖γν〗_t- η_t ?θ L(θ_t;x^((t) ),y^((t) )) (1-11)

θ(t+1)=θ_t+ν(t+1) (1-12)

其中ν_(t+1)是當(dāng)前的更新向量,γ即為動(dòng)量,通常設(shè)為0.9或者其他常數(shù)。

2013年,Sutskever等對(duì)傳統(tǒng)動(dòng)量算法改進(jìn)動(dòng)量更新過(guò)程使得訓(xùn)練更加穩(wěn)定。而Recht等提出并行SGD以適應(yīng)現(xiàn)代海量數(shù)據(jù)集的訓(xùn)練任務(wù)。

批規(guī)范化(Batch normalization)

當(dāng)訓(xùn)練一個(gè)深度神經(jīng)網(wǎng)絡(luò)時(shí),由于各層參數(shù)不斷變化,所以各層輸入的概率分布也在不斷的變化,也導(dǎo)致了非線性激活函數(shù)(如sigmoid等)正負(fù)兩邊都會(huì)飽和,使得訓(xùn)練迭代的過(guò)程變得極其緩慢甚至無(wú)法進(jìn)行。這時(shí)候,通常需要采用較小的學(xué)習(xí)率以及精細(xì)進(jìn)行權(quán)重初始化。loffe等將這種現(xiàn)象稱為“內(nèi)部協(xié)方差偏移”(internal covariate shift),并提出了批規(guī)范化(Batch normalization,BN)解決此類問(wèn)題。

該論文中提出在每次隨機(jī)梯度下降迭代時(shí),在最小批量樣本(mini-batch)內(nèi)做規(guī)范化操作,使得輸出結(jié)果各個(gè)維度的均值為0,方差為1,有效地避免了非線性激活函數(shù)的飽和問(wèn)題(以sigmoid為例,觀察sigmoid函數(shù)即可知,該函數(shù)輸入集中在0附近時(shí),其輸出梯度較大);同時(shí)也讓梯度變化受參數(shù)及其初值的影響減小。

假設(shè)對(duì)當(dāng)前隱含層執(zhí)行規(guī)范化,其輸入有d個(gè),分別為 x=〖[x_1,x_1,…,x_d]〗^T,則其第k維輸出如下:

x ?k = (x_k-μβ)/√(δ_β^2+?) (1-13)

其中,μβ和δβ^2分別為最小批量樣本的均值和方差。

為了加強(qiáng)其表示能力,原作中引入了一對(duì)可學(xué)習(xí)參數(shù) γ,β,使得:

y_k=〖BN〗_(γ,β) (x_k )= γx ?_k+β (1-14)

總體而言,批規(guī)范化(Batch normalization)作用可以歸納如下:

(1) 可以使用更高的學(xué)習(xí)率,加快了訓(xùn)練速度;

(2) 可以移除或使用較低的dropout(下一小節(jié)將作介紹)。dropout是常用的防止過(guò)擬合的方法,較低的dropout也可以提高訓(xùn)練速度。

(3) 減少圖像預(yù)處理的使用。由于現(xiàn)在訓(xùn)練迭代次數(shù)降低,所以可以對(duì)樣本數(shù)據(jù)少做一些圖像扭曲,讓神經(jīng)網(wǎng)絡(luò)多從真實(shí)的數(shù)據(jù)中學(xué)習(xí)。

當(dāng)然,對(duì)于上述問(wèn)題的解決辦法并不是唯一的,Razvan等提出的自然梯度(Natural Gradient)也是對(duì)解決這一問(wèn)題的一種思路。

Dropout

眾所周知,過(guò)擬合問(wèn)題一直是機(jī)器學(xué)習(xí)的算法的致力于解決的問(wèn)題。對(duì)于大型神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō),其參數(shù)規(guī)模相比于淺層學(xué)習(xí)算法有了躍進(jìn)式的增加,所以相對(duì)來(lái)說(shuō)也更加容易發(fā)生過(guò)擬合的現(xiàn)象。而為了解決過(guò)擬合問(wèn)題,一般會(huì)采用集成方法,即同時(shí)訓(xùn)練多個(gè)模型進(jìn)行組合,然而這種方法費(fèi)時(shí)費(fèi)力也不能保證取得預(yù)期效果。

2012年,Hinton等提出Dropout用于解決神經(jīng)網(wǎng)絡(luò)訓(xùn)練易過(guò)擬合的問(wèn)題。通過(guò)在其訓(xùn)練過(guò)程中,按照事先規(guī)定的概率暫時(shí)屏蔽掉其中的某些神經(jīng)元。由于這種屏蔽是暫時(shí)而是隨機(jī)的,對(duì)于隨機(jī)梯度下降來(lái)說(shuō),相當(dāng)于每一次批量樣本的訓(xùn)練均是在訓(xùn)練一個(gè)新的網(wǎng)絡(luò)。極端情況下,對(duì)于一個(gè)n節(jié)點(diǎn)的網(wǎng)絡(luò),相當(dāng)于同時(shí)在訓(xùn)練2^n個(gè)不同網(wǎng)絡(luò)模型, 但此時(shí)需要優(yōu)化的參數(shù)數(shù)量確實(shí)不變的,這也一定程度上符合傳統(tǒng)的集成方法的思想而同時(shí)解決了其費(fèi)時(shí)的問(wèn)題。

其數(shù)學(xué)表達(dá)如下:

y= εx (1-15)

其中,ε以一定的概率p等于0,使得該神經(jīng)元節(jié)點(diǎn)x暫時(shí)被屏蔽。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    深度學(xué)習(xí)模型的魯棒性優(yōu)化

    深度學(xué)習(xí)模型的魯棒性優(yōu)化是一個(gè)復(fù)雜但至關(guān)重要的任務(wù),它涉及多個(gè)方面的技術(shù)和策略。以下是一些關(guān)鍵的優(yōu)化方法: 一、數(shù)據(jù)預(yù)處理與
    的頭像 發(fā)表于 11-11 10:25 ?221次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場(chǎng)可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)
    的頭像 發(fā)表于 10-25 09:22 ?215次閱讀

    AI大模型深度學(xué)習(xí)的關(guān)系

    AI大模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大
    的頭像 發(fā)表于 10-23 15:25 ?651次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型量化的基本方法

    深度神經(jīng)網(wǎng)絡(luò)模型量化是深度學(xué)習(xí)領(lǐng)域中的一種重要優(yōu)化技術(shù),旨在通過(guò)減少模型參數(shù)的精度(即從高精度浮點(diǎn)數(shù)如32位浮點(diǎn)數(shù)FP32降低到低精度整數(shù)如
    的頭像 發(fā)表于 07-15 11:26 ?665次閱讀

    深度學(xué)習(xí)模型量化方法

    深度學(xué)習(xí)模型量化是一種重要的模型輕量化技術(shù),旨在通過(guò)減少網(wǎng)絡(luò)參數(shù)的比特寬度來(lái)減小模型大小和加速推理過(guò)程,同時(shí)盡量保持
    的頭像 發(fā)表于 07-15 11:01 ?489次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>量化<b class='flag-5'>方法</b>

    基于Python的深度學(xué)習(xí)人臉識(shí)別方法

    基于Python的深度學(xué)習(xí)人臉識(shí)別方法是一個(gè)涉及多個(gè)技術(shù)領(lǐng)域的復(fù)雜話題,包括計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)、以及圖像處理等。在這里,我將概述一個(gè)基本的
    的頭像 發(fā)表于 07-14 11:52 ?1251次閱讀

    深度學(xué)習(xí)模型中的過(guò)擬合與正則化

    深度學(xué)習(xí)的廣闊領(lǐng)域中,模型訓(xùn)練的核心目標(biāo)之一是實(shí)現(xiàn)對(duì)未知數(shù)據(jù)的準(zhǔn)確預(yù)測(cè)。然而,在實(shí)際應(yīng)用中,我們經(jīng)常會(huì)遇到一個(gè)問(wèn)題——過(guò)擬合(Overfitting)。過(guò)擬合是指
    的頭像 發(fā)表于 07-09 15:56 ?927次閱讀

    深度學(xué)習(xí)中的時(shí)間序列分類方法

    的發(fā)展,基于深度學(xué)習(xí)的TSC方法逐漸展現(xiàn)出其強(qiáng)大的自動(dòng)特征提取和分類能力。本文將從多個(gè)角度對(duì)深度學(xué)習(xí)在時(shí)間序列分類中的應(yīng)用進(jìn)行綜述,探討
    的頭像 發(fā)表于 07-09 15:54 ?877次閱讀

    深度學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)方法綜述

    深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)重要分支,近年來(lái)在多個(gè)領(lǐng)域取得了顯著的成果,特別是在圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域。然而,深度學(xué)習(xí)
    的頭像 發(fā)表于 07-09 10:50 ?683次閱讀

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)這一充滿無(wú)限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是
    的頭像 發(fā)表于 07-04 11:49 ?1215次閱讀

    深度學(xué)習(xí)常用的Python庫(kù)

    深度學(xué)習(xí)常用的Python庫(kù),包括核心庫(kù)、可視化工具、深度學(xué)習(xí)框架、自然語(yǔ)言處理庫(kù)以及數(shù)據(jù)抓取庫(kù)
    的頭像 發(fā)表于 07-03 16:04 ?625次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過(guò)程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過(guò)程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練一個(gè)深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 16:13 ?1236次閱讀

    深度學(xué)習(xí)模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型在訓(xùn)練過(guò)程中,往往會(huì)遇到各種問(wèn)題和挑戰(zhàn),如過(guò)擬合、欠擬合、梯度消失或爆炸等。因此,對(duì)深度學(xué)習(xí)
    的頭像 發(fā)表于 07-01 11:41 ?802次閱讀

    一種利用光電容積描記(PPG)信號(hào)和深度學(xué)習(xí)模型對(duì)高血壓分類的新方法

    學(xué)習(xí)方法來(lái)對(duì)高血壓的四個(gè)階段進(jìn)行分類。這里采用的分類方法是:Alexnet、Resnet -50、VGG-16和新的模型:AvgPool_VGG-16。使用這些算法時(shí)要考慮到數(shù)據(jù)集的數(shù)
    發(fā)表于 05-11 20:01

    深度學(xué)習(xí)檢測(cè)小目標(biāo)常用方法

    深度學(xué)習(xí)的效果在某種意義上是靠大量數(shù)據(jù)喂出來(lái)的,小目標(biāo)檢測(cè)的性能同樣也可以通過(guò)增加訓(xùn)練集中小目標(biāo)樣本的種類和數(shù)量來(lái)提升。
    發(fā)表于 03-18 09:57 ?711次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>檢測(cè)小目標(biāo)<b class='flag-5'>常用</b><b class='flag-5'>方法</b>
    主站蜘蛛池模板: 麻豆官网md.pub| 国内精品偷拍在线观看| 福利片午夜| 纯肉宠文高h一对一| 国产成人拍精品视频网| 国产手机在线亚洲精品观看| 黄 色 网 站 免 费 涩涩屋| 久久精品亚洲精品国产欧美| 免费99精品国产人妻自在线| 人妻仑乱少妇88MAV| 窝窝影院午夜看片毛片| 亚洲色欲色欲www474ee| 中文字幕精品无码一区二区| jizzjizz中国大学生| 国产成人午夜精品免费视频| 精品国产精品人妻久久无码五月天| 刘梓晨啪啪啪| 日韩免费一区| 亚洲偷偷自拍免费视频在线| 99视频精品免视3| 国产精品免费一区二区三区四区 | 蜜臀AV精品一区二区三区| 青柠在线观看视频在线高清完整| 小泽玛丽av无码观看| 中文国产乱码在线人妻一区二区| yellow免费观看在线| 国内精品国内自产视频| 男生J桶进女人P又色又爽又黄| 午夜向日葵视频在线观看| 曰本aaaaa毛片午夜网站| 成人午夜精品久久久久久久秋霞| 花蝴蝶高清在线视频免费观看| 内射白浆一区二区在线观看| 亚洲成AV人电影在线观看| 99九九精品视频| 国产免费播放一区二区三区| 老头xxx| 天美传媒在线观看免费完整版| 中文字幕亚洲第一| 国产精品久久久久影院免费| 美女爽到嗷嗷嗷叫|