色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AI網紅Andrej Karpathy最新力作,傾囊相授神經網絡的33條訓練技巧

DPVg_AI_era ? 來源:lq ? 2019-04-28 09:03 ? 次閱讀

AI網紅Andrej Karpathy最新力作,傾囊相授神經網絡的33條訓練技巧,干貨必看。

Andrej Kapathy 是計算機視覺深度學習領域的專家之一,畢業于斯坦福人工智能實驗室,博士師從李飛飛教授,在谷歌大腦、DeepMind 實過習,與吳恩達一起共事,業界幾大深度學習實驗室都待過。

2017年6月,Karpathy加入特斯拉,擔任AI和Autopilot Vision 部門主管,直接向 Elon Musk 匯報。

更重要的是,Karpathy樂于而且善于分享自己的經驗和見解,在推特和博客上非常活躍,有 AI “網紅” 之稱。

Karpathy的推特簡介上有一句“I like to train Deep Neural Nets on large datasets.”近日,Karpathy將他訓練神經網絡的經驗傾囊相授,獲得大量好評。

以下是新智元對這篇“神經網絡煉丹術”的譯介:

30行代碼訓練神經網絡?Too young

幾周前,我在推特上發了一條“最常見的神經網絡錯誤”的推文,列舉了一些與訓練神經網絡相關的常見錯誤。這條推文獲得了比我預期的更多的參與(甚至還有一個在線研討會:)。顯然,很多人都曾親身經歷過“這就是卷積層的工作原理”和“我們的卷積網絡實現了最先進的結果”之間的巨大差距。

所以我想,打開我差不多塵封的博客,就這個話題寫一篇長文,應該會更好。不過,我不打算詳細列舉更多常見的錯誤,我想更深入地探討一下如何能夠完全避免這些錯誤(或快速修復它們)。這樣做的訣竅是遵循一個特定的過程,據我所知,這個過程很少有文字記錄。

那么,讓我們從兩個重要的觀察開始。

1) 神經網絡訓練是一種“抽象泄漏”(leaky abstraction)

據說開始訓練神經網絡很容易。許多庫和框架都以可以用30行的奇跡代碼片段解決你的數據問題而自豪,給人一種即插即用的(錯誤)印象。常見的做法是:

>>> your_data = # plug your awesome dataset here>>> model = SuperCrossValidator(SuperDuper.fit, your_data, ResNet50, SGDOptimizer)# conquer world here

這些庫和示例激活了我們大腦中熟悉的標準軟件的部分——通常可以獲得干凈的API和抽象。請求庫演示如下:

>>> r = requests.get('https://api.github.com/user', auth=('user', 'pass'))>>> r.status_code200

這很酷!開發者勇敢地承擔了理解查詢字符串、url、GET/POST請求、HTTP連接等重擔,并在很大程度上隱藏了幾行代碼背后的復雜性。這是我們所熟悉和期望的。

不幸的是,神經網絡不是這樣的。如果你稍微偏離了訓練ImageNet分類器,那么它們就不是“現成的”技術。

在我以前介紹反向傳播的博文中,我試圖通過使用反向傳播并將其稱為“抽象泄漏”來說明這一點,但不幸的是,情況要糟糕得多。Backprop + SGD并不會神奇地讓你的網絡工作。Batch norm并不能神奇地使其更快地收斂。RNN不會神奇地讓你“插入”文本。你可以用RL表示你的問題,但僅僅是這樣并不意味著你應該這樣做。如果你堅持使用這種技術而不了解它的工作原理,那么你很可能會失敗。這使我想到……

2) 神經網絡訓練常常無聲無息地失敗

當你破壞或錯誤配置代碼時,通常會遇到某種異常。比如你插入了一個包含預期字符串的整數。這個函數只需要3個參數。但導入失敗了。這個鍵根本不存在。這兩個列表中的元素數量不相等。此外,通常可以為某個特定功能創建單元測試。

這只是訓練神經網絡的開端。從語法上來說,一切都是正確的,但整件事的安排并不妥善,這真的很難判斷。“可能的錯誤范圍”很大,符合邏輯(與語法相反),并且很難進行單元測試。例如,在數據增強過程中,當你從左到右翻轉圖像時,可能忘記了翻轉標簽。你的網絡仍然可以(令人震驚地)很好地工作,因為你的網絡可以在內部學習檢測翻轉的圖像,然后左右翻轉它的預測。或者你的自回歸模型會因為一個off-by-one的bug而不小心將它試圖預測的東西作為輸入。或者你試著修剪梯度,但結果卻減少了損失,導致在訓練期間忽略了異常值的例子。或者你從一個預訓練的檢查點初始化你的權重,但沒有使用原始平均值。或者你只是搞砸了正則化強度、學習率、衰減率、模型大小等的設置。因此,只有在運氣好的情況下,錯誤配置的神經網絡才會拋出異常;大多數情況下,它會繼續訓練,但默默地使運行變糟。

因此,用“快速而激烈”的方法來訓練神經網絡是行不通的,只會導致痛苦。痛苦雖然是讓神經網絡正常工作的一個非常自然的部分,但它是可以通過徹底的、防御性的、偏執的,以及對幾乎所有可能的事情進行可視化來減輕的。根據我的經驗,與深度學習成功最相關的品質是耐心和關注細節。

如何訓練一個神經網絡

基于以上兩個事實,我為自己開發了一個特定的過程,當我將神經網絡應用到一個新的問題時,我都遵循這個過程。本文中我將嘗試描述這個過程。

你會看到,它是非常重視上述兩個原則的。特別是,它是從簡單到復雜構建的,每一步我們都對將要發生的事情做出具體的假設,然后通過實驗驗證它們,或者進行調查,直到發現問題。我們極力避免的是同時引入大量“未經驗證”的復雜性,這必然會引入錯誤/錯誤配置,而這些錯誤/錯誤配置將永遠無法找到。如果像訓練一樣編寫神經網絡代碼,你會想要使用非常小的學習率并猜測,然后在每次迭代之后評估完整的測試集。

1. 梳理數據

訓練神經網絡的第一步是完全不接觸任何神經網絡代碼,而是從徹底檢查數據開始。這一步至關重要。我喜歡花大量時間(以小時為單位)瀏覽數千個示例,了解它們的分布并尋找模式。幸運的是,我們的大腦非常擅長做這個。有一次,我發現數據中包含重復的例子。另一次我發現了損壞的圖像/標簽。我會尋找數據中的不平衡和偏差。我通常也會關注我自己對數據進行分類的過程,這個過程暗示了我們最終要探索的各種架構類型。

舉個例子,只有局部的特性是否足夠,還是需要全局上下文?有多少變量,它們以什么形式出現?哪些變量是假的,可以預先處理的?空間位置是否重要,或者我們是否想要將其平均池化?細節有多重要,我們能在多大程度上對圖像進行降采樣?標簽有多少噪音?

此外,由于神經網絡實際上是數據集的壓縮/編譯版本,因此你能夠查看你的網絡預測并了解它們可能來自何處。如果你的網絡給你的預測與你在數據中看到的不一致,那就是有什么地方錯了。

一旦獲得了一種定性的感覺,那么寫一些簡單的代碼來搜索/過濾/排序也是一個好主意,不管你能想到什么(例如標簽的類型,注釋的大小,注釋的數量,等等),并將它們的分布和沿著任何軸的異常值可視化。異常值幾乎總是能揭示數據質量或預處理中的一些bug。

2. 建立端到端的訓練/評估框架+獲取簡單的基線

現在我們了解了我們的數據,那么就可以實現炫酷的多尺度ASPP FPN ResNet,并開始訓練超棒的模型了嗎?肯定不是。這是一條痛苦的道路。下一步是建立一個完整的訓練+評估框架,通過一系列的實驗獲得對其正確性的信任。在這個階段,最好選擇一些你不可能搞砸的簡單模型——例如一個線性分類器,或者一個非常小的卷積網絡。我們希望訓練這個網絡,可視化損失,任何其他指標(例如準確性),模型預測,并在此過程中執行一系列帶有明確假設的消融實驗。

這個階段的提示和技巧:

修復隨機種子(random seed)。總是使用固定的隨機seed來保證當你運行代碼兩次時,將得到相同的結果。這消除了變異因素,將有助于保持你的理智。

簡化。確保不要有任何不必要的幻想。例如,在這個階段一定要關閉所有數據增強。數據增強是一種正則化策略,我們稍后可能會將其合并進來,但目前它只是會引入一些愚蠢的bug。

在評估中添加有效數字。當繪制測試損失時,在整個(大型)測試集上運行評估。不要只在batches上繪制測試損失,然后依賴于在Tensorboard中平滑它們。我們要追求正確,很愿意放棄時間。

在初始化時驗證損失。驗證你的損失是否以正確的損失值開始。例如,如果你正確地初始化了最后一層,你應該在初始化時測量softmax的-log(1/n_classes)。同樣的缺省值可以用于L2回歸、Huber損失等。

正確地初始化。正確初地始化最后一層權重。例如,如果你要回歸一些平均值為50的值,那么要將最終偏差初始化為50。如果你有一個不平衡的數據集,其正負比為1:10,那么在你的日志上設置偏差,使你的網絡預測概率在初始化時為0.1。正確設置這些參數將加快收斂速度,并消除“hockey stick”損失曲線,在最初幾次迭代中,你的網絡基本上只是學習偏差。

human baseline。監控人類可解釋和可檢查的損失以外的指標(例如準確性)。盡可能地評估你自己(人類)的準確性,并與之進行比較。或者,對測試數據進行兩次注釋,對于每個示例,將一個注釋作為預測,將第二個注釋作為ground truth。

input-indepent baseline。訓練一個獨立于輸入的基線(例如,最簡單的方法就是將所有輸入設置為零)。這應該比實際插入數據而不將其歸零的情況更糟。也就是說,可以知道你的模型是否學會從輸入中提取任何信息?

在單個批數據上過擬合。只過擬合包含少量例子(例如只有兩個)的一個batch。為此,我們需要增加模型的容量(例如添加層或過濾器),并驗證我們可以達到的最低損失值(例如0)。我也喜歡在同一個圖中可視化標簽和預測,并確保一旦達到最小損失,它們最終會完美地對齊。如果沒有完美對齊,那么在某個地方就有一個bug,我們無法繼續到下一個階段。

驗證訓練損失的下降。在這個階段,你可能希望在數據集上實現欠擬合,因為該階段的模型是一個玩具模型。試著增加一點它的容量,在看看訓練損失是否下降了。

在輸入網絡前進行可視化。在運行y_hat = model(x)(或tf中運行sess.run)之前,是可視化數據的正確時間。也就是說,我們需要準確地可視化輸入給你的網絡的東西,把原始的數據張量和標簽解碼并可視化。這是唯一的“真理之源”。這個過程為我節省了大量時間,并揭示了數據預處理和增強方面的問題。

可視化預測動態。在訓練過程中,我喜歡將固定測試batch的模型預測可視化。這些預測如何移動的“動態”將為你提供關于訓練進展的良好直覺。很多時候,如果網絡以某種方式太過波動,顯示出不穩定性,你可能會覺得網絡“難以”擬合你的數據。非常低或非常高的學習率在波動的數量中也很容易被注意到。

使用反向傳播來繪制依賴關系圖。深度學習代碼通常包含復雜、向量化和broadcast操作。我遇到過的一個比較常見的bug是,人們使用view而不是在某個地方進行transpose/permute,無意中混淆了批處理的維度信息。然而,你的網絡通常仍然訓練良好,因為它將學會忽略來自其他示例的數據。一種debug的方法是將某個示例i的損失設置為1.0,然后運行反向傳播一直到輸入,并確保只在i-thexample上得到一個非零梯度。也就是說,梯度提供了網絡中的依賴關系信息,這對于debug非常有用。

一般化特殊案例。這是一種更為通用的編碼技巧,但是我經常看到人們在使用這個技巧時產生bug,尤其是從頭編寫一個相對通用的函數時。我喜歡為我正在做的事情寫非常具體的函數,讓這個函數能work,然后再一般化,確保得到相同的結果。這通常適用于向量化代碼,我會先寫出完整的循環版本,然后再將它轉換為向量化代碼。

3.過擬合

在這個階段,我們應該對數據集有一個很好的理解,我們有完整的訓練和評估pipeline。對于任何給定的模型,我們可以(可重復地)計算出一個可信的量度。我們還可以利用獨立于輸入的baseline的性能(并擊敗了這些基線性能),我們大致了解人類的表現。這一階段的任務是對一個性能不錯的模型進行迭代。

找到一個好模型可以分為兩個極端:首先得到一個足夠大的模型,它可以是過擬合的,然后在適當調整(放棄一些訓練損失,以改善驗證損失)。我認為采取這兩個階段的好處是,如果我們根本無法使用任何模型達到足夠低的錯誤率,這種方式可能再次暴露一些問題、bug或錯誤配置。

關于這個階段的一些提示和技巧:

挑選模型。為了獲得良好的訓練損失,需要為數據選擇合適的架構。我的建議是:不要逞英雄。我見過很多人瘋狂的人,將神經網絡工具箱的各種工具像堆樂高積木一樣堆疊在各種奇異的架構中。應該在項目早期階段盡力避免這樣做。

我總是建議先找到最相關的一些論文,先把其中最簡單的架構原樣照搬過來,以獲得良好的性能。比如你做得是圖像分類,不要想著當英雄,先把ResNet-50拿過來用。后面可以做一些更自定義設置和改進,并實現比它更好的性能。

Adam總沒錯。在設定baseline方法的早期階段,我喜歡使用學習率為3e-4的Adam架構。根據我的經驗,Adam對超參數更加寬容,包括不良的學習率。對于ConvNets來說,一個經過適當調整的SGD幾乎總會略優于Adam,但前者最佳學習率區域要窄得多,而且受到具體問題所限。(如果使用的是RNN和相關的序列模型,那么在項目早期階段更常用Adam。再說一遍,不要逞英雄,多參考相關論文。)

一次只針對一個對象進行復雜化。如果有多個信號進入分類器,建議逐個引入,確保每次信號的引入都獲得預期的性能提升。一開始不要一股腦地把全部信號都喂給模型。增加復雜度還有別的方法,比如可以嘗試先插入較小的圖像,然后再放大,諸如此類。

不要過于相信默認的學習率衰減。如果是重用來自其他領域的代碼,那么在處理學習速度衰減時一定要非常小心。您不僅希望針對不同的問題使用不同的衰減計劃,而且 - 更糟糕的是 - 在典型的實施中,計劃將基于當前的epoch數,該值會根據數據集的大小而廣泛變化。

比如,ImageNet將在30個epoch上衰減10倍。如果你沒有訓練ImageNet那么這肯定不是想要的結果。如果你不小心,代碼可能會過早地將學習率趨零,導致模型無法收斂。在我自己的研究中總是完全禁用學習率衰減(學習速率為常數)并在最后進行調整。

4.正則化

理想情況下,我們要處理的是大型模型,至少能夠擬合訓練集。現在是時候通過放棄一些訓練準確性,進行一些正則化處理,以獲得一些驗證準確性。以下是這方面一些提示和技巧:

獲取更多的數據。首先,在任何實際環境中,最佳和首選方法是添加更多真實的訓練數據。當可以收集更多數據時,就不要再花費大量時間嘗試從小型數據集中擠性能了。據我所知,添加更多數據幾乎是唯一無限期改善配置良好的神經網絡性能的方式。還有一種方式是合奏(如果你能負擔得起的話),但是在5個模型之后最高。

數據增強。僅次于真實數據的半真實的數據,需要嘗試更積極的數據增強。

創造性數據增強。如果半假數據不能做到這一點,假數據也許可以。人們正在尋找擴展數據集的創新方法;例如,域隨機化,模擬的使用,巧妙的混合,比如將(可能模擬的)數據引入場景,甚至是GAN中。

預訓練。即使有足夠的數據,如果可以,也很少使用預訓練網絡。

堅持監督式學習。不要對無監督的預訓練抱有過分的信心。據我所知,沒有任何一種無監督學習在現代計算機視覺任務上有很強的表現(雖然現在NLP領域誕生了BERT等優秀模型,但這很可能是因為文本數據更成熟的形式,以及更高的信噪比)。

更小的輸入維度。去除可能包含虛假信號的特征。如果數據集很小,任何添加的虛假輸入都可能造成過擬合。同樣,如果低級細節無關緊要,請嘗試輸入更小的圖像。

較小的模型。很多時候可以在網絡上使用域知識約束來減小模型大小。例如,過去在ImageNet骨干網頂部使用全連接層很流行,但現在已改用簡單的平均池化,從而去掉了過程中的大量參數。

減小批大小。由于歸一化是基于批大小的,更小的batch size會具有更明顯的正則化效果。這是因為批量經驗均值/標準是完整均值/標準的更近似版本,因此標度和偏移量“擺動”您的批次更多。

Drop。添加dropout。對ConvNets使用dropout2d(空間丟失)。建議謹慎使用dropout,因為似乎不太不適合批歸一化。

權重衰減。增加權重衰減懲罰。

“早停”:提早停止訓練。根據驗證損失停止訓練,在出現過擬合之前獲得模型。

嘗試更大的模型。我最后提到這一點,并且只是在提前停止之后,但我在過去曾經發現過幾次大模型最終過擬合,但是它們的“早停”性能往往比小模型的性能要好得多。

最后,為了進一步確保網絡是一個合理的分類器,我喜歡對網絡第一層權重進行可視化,并確保獲得有意義的邊緣。如果第一層濾波器看起來像噪音,那么可能需要去掉一些東西。類似地,網絡中的激活函數有時也會有異常出現,暴露出一些問題。

5.精細調整

現在應該使用數據集探索寬泛的模型空間,以獲得低驗證損失的體系結構。下面是一些提示和技巧:

隨機網格搜索。為了同時調整多個超參數,使用網格搜索確保覆蓋所有設置,這聽起來很誘人,但請記住,最好使用隨機搜索。直觀地說,這是因為神經網絡通常對某些參數比其他參數更敏感。在極限情況下,如果一個參數很重要,但是改變另一個參數沒有效果,那還不如對第一個參數進行徹底采樣。

超參數優化。目前有很多花哨的貝葉斯超參數優化工具箱,也有一些成功應用的實例,但我個人的經驗是,探索優質大寬度模型和超參數空間的最好方式是找個實習生。哈哈,開句玩笑。

6.性能壓榨

在確定了最佳類型的體系結構和超參數后,仍然可以利用一些技巧最后“壓榨”一下系統的性能:

集成。模型是一種非常有保證的方法,可以在任何事情上獲得2%的準確率。如果您在測試時無法負擔計算,請考慮使用黑暗知識將您的整體提升到網絡中。

保持訓練。我經常看到人們在驗證損失趨于平穩時就想停止模型訓練。根據我的經驗,網絡會長時間不間斷地進行訓練。有一次我在冬假期間不小心沒有停止訓練,當我第二1月份回來時,發現模型性能達到了SOTA水平。

寫在最后

走到這一步,相信你已經獲得了成功的所有要素:對技術,數據集和問題有了深刻的理解,建立了整個模型的訓練/評估基礎設施,并對其準確性有了很高的信心,并探索了越來越復雜的模型,以預測每一步的方式獲得性能改進。現在是時候開始閱讀大量論文,嘗試大量實驗,準備好獲得SOTA結果吧。祝你好運!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4779

    瀏覽量

    101040
  • AI
    AI
    +關注

    關注

    87

    文章

    31490

    瀏覽量

    269883
  • 深度學習
    +關注

    關注

    73

    文章

    5512

    瀏覽量

    121408

原文標題:李飛飛高徒、AI“網紅”Karpathy:訓練神經網絡不得不看的33個技巧

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    關于卷積神經網絡,這些概念你厘清了么~

    必須通過決策閾值做出決定。 另一個區別是AI并不依賴固定的規則,而是要經過訓練訓練過程需要將大量貓的圖像展示給神經網絡以供其學習。最終,神經網絡
    發表于 10-24 13:56

    Python自動訓練人工神經網絡

    人工神經網絡(ANN)是機器學習中一種重要的模型,它模仿了人腦神經元的工作方式,通過多層節點(神經元)之間的連接和權重調整來學習和解決問題。Python由于其強大的庫支持(如TensorFlow、PyTorch等),成為了實現和
    的頭像 發表于 07-19 11:54 ?393次閱讀

    如何使用經過訓練神經網絡模型

    使用經過訓練神經網絡模型是一個涉及多個步驟的過程,包括數據準備、模型加載、預測執行以及后續優化等。
    的頭像 發表于 07-12 11:43 ?1105次閱讀

    脈沖神經網絡怎么訓練

    脈沖神經網絡(SNN, Spiking Neural Network)的訓練是一個復雜但充滿挑戰的過程,它模擬了生物神經元通過脈沖(或稱為尖峰)進行信息傳遞的方式。以下是對脈沖神經網絡
    的頭像 發表于 07-12 10:13 ?695次閱讀

    怎么對神經網絡重新訓練

    重新訓練神經網絡是一個復雜的過程,涉及到多個步驟和考慮因素。 引言 神經網絡是一種強大的機器學習模型,廣泛應用于圖像識別、自然語言處理、語音識別等領域。然而,隨著時間的推移,數據分布可能會
    的頭像 發表于 07-11 10:25 ?509次閱讀

    BP神經網絡的基本結構和訓練過程

    網絡結構,通過誤差反向傳播算法(Error Backpropagation Algorithm)來訓練網絡,實現對復雜問題的學習和解決。以下將詳細闡述BP神經網絡的工作方式,涵蓋其基本
    的頭像 發表于 07-10 15:07 ?5038次閱讀
    BP<b class='flag-5'>神經網絡</b>的基本結構和<b class='flag-5'>訓練</b>過程

    如何利用Matlab進行神經網絡訓練

    ,使得神經網絡的創建、訓練和仿真變得更加便捷。本文將詳細介紹如何利用Matlab進行神經網絡訓練,包括網絡創建、數據預處理、
    的頭像 發表于 07-08 18:26 ?2004次閱讀

    人工神經網絡模型訓練的基本原理

    圖像識別、語音識別、自然語言處理等。本文將介紹人工神經網絡模型訓練的基本原理。 1. 神經網絡的基本概念 1.1 神經神經元是
    的頭像 發表于 07-05 09:16 ?767次閱讀

    深度神經網絡與基本神經網絡的區別

    在探討深度神經網絡(Deep Neural Networks, DNNs)與基本神經網絡(通常指傳統神經網絡或前向神經網絡)的區別時,我們需要從多個維度進行深入分析。這些維度包括
    的頭像 發表于 07-04 13:20 ?1030次閱讀

    反向傳播神經網絡和bp神經網絡的區別

    神經網絡在許多領域都有廣泛的應用,如語音識別、圖像識別、自然語言處理等。然而,BP神經網絡也存在一些問題,如容易陷入局部最優解、訓練時間長、對初始權重敏感等。為了解決這些問題,研究者們提出了一些改進的BP
    的頭像 發表于 07-03 11:00 ?856次閱讀

    bp神經網絡和卷積神經網絡區別是什么

    結構、原理、應用場景等方面都存在一定的差異。以下是對這兩種神經網絡的比較: 基本結構 BP神經網絡是一種多層前饋神經網絡,由輸入層、隱藏層和輸出層組成。每個神經元之間通過權重連接,并通
    的頭像 發表于 07-03 10:12 ?1322次閱讀

    卷積神經網絡訓練的是什么

    訓練過程以及應用場景。 1. 卷積神經網絡的基本概念 1.1 卷積神經網絡的定義 卷積神經網絡是一種前饋深度學習模型,其核心思想是利用卷積操作提取輸入數據的局部特征,并通過多層結構進
    的頭像 發表于 07-03 09:15 ?481次閱讀

    如何訓練和優化神經網絡

    神經網絡是人工智能領域的重要分支,廣泛應用于圖像識別、自然語言處理、語音識別等多個領域。然而,要使神經網絡在實際應用中取得良好效果,必須進行有效的訓練和優化。本文將從神經網絡
    的頭像 發表于 07-01 14:14 ?515次閱讀

    利用深度循環神經網絡對心電圖降噪

    具體的軟硬件實現點擊 http://mcu-ai.com/ MCU-AI技術網頁_MCU-AI 我們提出了一種利用由長短期記憶 (LSTM) 單元構建的深度循環神經網絡來降 噪心電圖信
    發表于 05-15 14:42

    利用神經網絡對腦電圖(EEG)降噪

    數據與干凈的EEG數據構成訓練數據,并且分成訓練、驗證和測試數據集。 繪制有噪聲EEG數據與干凈的EEG數據 顯然,傳統的任何算法很難將EEG數據從噪聲中濾出來。 定義神經網絡結構,之所以選擇長短期記憶
    發表于 04-30 20:40
    主站蜘蛛池模板: 阿力gv资源 | 国产精品久久久久无码AV色戒 | 在线超碰免费视频观看 | 亚洲精品免费在线 | 欧美激情一区二区三区四区 | 麻豆啊传媒app黄版破解免费 | 国产精品一区二区20P | 日日夜夜影院在线播放 | 妖精视频一区二区免费 | 国产综合18久久久久久软件 | 日日摸夜夜嗷嗷叫日日拍 | 亚洲精品国产专区91在线 | 手机看片一区二区 | 欧美亚洲日本日韩在线 | 99视频在线免费观看 | 青青热久精品国产亚洲AV无码 | 国产毛A片啊久久久久久A | 亚洲无遮挡| 国产69精品久久久熟女 | 国产99视频精品免费播放 | 美女内射少妇三区五区 | 国产精品久久一区二区三区蜜桃 | 在线看片韩国免费人成视频 | 免费黄色网址在线观看 | 国语自产视频在线不卡 | 啪啪漫画无遮挡全彩h同人 啪啪激情婷婷久久婷婷色五月 | 青青伊人久久 | www亚洲欲色成人久久精品 | a视频在线免费观看 | 蜜桃传媒一区二区亚洲AV | 国产午夜电影院 | 双性精跪趴灌满h室友4p | 亚洲在线无码免费观看 | 亚洲高清国产拍精品影院 | 制服的微热 | 扒开老师大腿猛进AAA片邪恶 | 亚洲日本香蕉视频观看视频 | 99精品视频在线观看re | 欧美成人中文字幕在线看 | 新香蕉少妇视频网站 | 亚洲国产精品线在线观看 |