色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在應(yīng)用層面了解遷移學(xué)習(xí)的原理及其優(yōu)勢

電子工程師 ? 來源:未知 ? 作者:李倩 ? 2018-10-27 10:20 ? 次閱讀

兩年前,吳恩達(dá)在 NIPS 2016 的 Tutorial 上曾說“在監(jiān)督學(xué)習(xí)之后,遷移學(xué)習(xí)將引領(lǐng)下一波機(jī)器學(xué)習(xí)技術(shù)商業(yè)化浪潮。”現(xiàn)實(shí)中不斷有新場景的出現(xiàn),遷移學(xué)習(xí)可以幫助我們更好地處理遇到的新場景。遷移學(xué)習(xí)到底有哪些優(yōu)點(diǎn),能夠成為現(xiàn)在機(jī)器學(xué)習(xí)算法的新焦點(diǎn)?本文將通過與深度學(xué)習(xí)進(jìn)行對(duì)比,讓大家在應(yīng)用層面了解遷移學(xué)習(xí)的原理及其優(yōu)勢。

前言

深度學(xué)習(xí)在許多很難用其它方法解決的問題上取得了長足的進(jìn)步。深度學(xué)習(xí)的成功歸功于它與傳統(tǒng)的機(jī)器學(xué)習(xí)的幾個(gè)關(guān)鍵不同點(diǎn),這使得它在處理非結(jié)構(gòu)化數(shù)據(jù)的時(shí)候能夠大放異彩。如今,深度學(xué)習(xí)模型可以玩游戲,檢測癌癥,與人類交談,以及駕駛汽車。

但是,使深度學(xué)習(xí)強(qiáng)大的這幾個(gè)不同點(diǎn)同時(shí)也使得其成本巨大。你可能聽說過深度學(xué)習(xí)的成功需要龐大的數(shù)據(jù)量,昂貴的硬件設(shè)施,甚至更加昂貴的精英工程人才。現(xiàn)在,一些公司開始對(duì)那些可以減少成本的創(chuàng)新想法和技術(shù)特別興奮。比如多任務(wù)學(xué)習(xí)(Multi-task learning),這是一種可以讓機(jī)器學(xué)習(xí)模型一次性從多個(gè)任務(wù)中進(jìn)行學(xué)習(xí)的方法。這種方法的其中一種好處就是,可以減少對(duì)訓(xùn)練數(shù)據(jù)量的需求。

在這篇文章中,我們將會(huì)介紹遷移學(xué)習(xí)(transfer learning),一種可以讓知識(shí)從一個(gè)任務(wù)遷移到另一個(gè)任務(wù)中的機(jī)器學(xué)習(xí)方法。遷移學(xué)習(xí)不需要為你的問題重新開發(fā)一個(gè)完全定制的解決方案,而是允許你從相關(guān)問題中遷移知識(shí),以幫助你更輕松地解決您的自定義問題。通過遷移知識(shí),你可以利用用于獲取這些知識(shí)所需的昂貴資源,包括訓(xùn)練數(shù)據(jù),硬件設(shè)備,研究人員,而這些成本并不需要你來承擔(dān)。下面讓我們看看遷移學(xué)習(xí)何時(shí)以及是怎樣起作用的。

深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的不同點(diǎn)

遷移學(xué)習(xí)并不是一項(xiàng)新技術(shù),它也不是專門為深度學(xué)習(xí)服務(wù)的,但是鑒于最近在深度學(xué)習(xí)方面取得的進(jìn)展,它很令人興奮。所以首先,我們需要闡明深度學(xué)習(xí)究竟和傳統(tǒng)的機(jī)器學(xué)習(xí)在哪些方面有所不同。

▌深度學(xué)習(xí)進(jìn)行底層抽象

機(jī)器學(xué)習(xí)是機(jī)器自動(dòng)學(xué)習(xí)把預(yù)測值或者標(biāo)簽分配給數(shù)值型輸入(即數(shù)據(jù))的一種方式。這里的難點(diǎn)是,如何確切地確定這個(gè)函數(shù),使得其對(duì)于給定輸入可以生成輸出。不對(duì)函數(shù)添加任何限制條件的話,其可能性(復(fù)雜性)是無窮無盡的。為了簡化這個(gè)任務(wù),根據(jù)我們正在解決的問題的類型,相關(guān)領(lǐng)域的專業(yè)知識(shí),或者簡單的試錯(cuò)方法,我們通常會(huì)在函數(shù)上強(qiáng)加某種類型的結(jié)構(gòu)。一種結(jié)構(gòu)定義了某一類型的機(jī)器學(xué)習(xí)模型。

理論上,有無限種可能的結(jié)構(gòu)可供選擇,但在實(shí)踐中,大多數(shù)機(jī)器學(xué)習(xí)用例可以通過應(yīng)用少數(shù)幾種結(jié)構(gòu)中的其中一種來解決:線性模型,樹的組合分類器,和支持向量機(jī)是其中的核心。數(shù)據(jù)科學(xué)家的工作就是從這一小組可能的結(jié)構(gòu)中選擇正確的結(jié)構(gòu)。這些模型作為黑盒對(duì)象,可以從許多成熟的機(jī)器學(xué)習(xí)庫中獲得,并且只需幾行代碼即可訓(xùn)練。舉個(gè)例子,你可以用 Python 的 scikit-learn 庫像以下這樣訓(xùn)練一個(gè)隨機(jī)森林模型:

或者用 R 來訓(xùn)練一個(gè)線性回歸模型:

與此不同的是,深度學(xué)習(xí)在更加底層運(yùn)行。深度學(xué)習(xí)不是從一小組的模型結(jié)構(gòu)中進(jìn)行選擇,而是允許開發(fā)人員組成任意結(jié)構(gòu)。構(gòu)建塊是一些模塊或者層,可以將其想象成基本的基礎(chǔ)數(shù)據(jù)轉(zhuǎn)換。這意味著當(dāng)我們應(yīng)用深度學(xué)習(xí)時(shí),我們需要打開黑盒子了解數(shù)據(jù)轉(zhuǎn)換,而不是把它當(dāng)做被算法固定的一堆參數(shù)

這種做法使得我們可以構(gòu)建更加強(qiáng)大的模型,但是同時(shí)它也給整個(gè)模型構(gòu)建過程添加了一種全新的挑戰(zhàn)。盡管深度學(xué)習(xí)社區(qū)已經(jīng)發(fā)表了大量研究,到處都有實(shí)用的深度學(xué)習(xí)指南,或者一些經(jīng)驗(yàn)之談,如何有效地組合這些數(shù)據(jù)轉(zhuǎn)換依然是一個(gè)很困難的過程。

下面我們考慮一個(gè)極其簡單的卷積神經(jīng)網(wǎng)絡(luò)圖像分類器,這里是用一個(gè)流行的深度學(xué)習(xí)庫 PyTorch 來進(jìn)行定義的。

因?yàn)槲覀兪褂玫氖堑讓拥臉?gòu)建塊,我們可以輕松改變模型的某個(gè)單一部件(例如,將F.relu變?yōu)镕.sigmoid)。這樣做可以得到一個(gè)全新的模型架構(gòu),它可能會(huì)產(chǎn)生截然不同的結(jié)果,而且它的可能性,毫不夸張地說,是無止境的。

▌深度學(xué)習(xí)還沒有被充分地理解

即使給定了一個(gè)固定的神經(jīng)網(wǎng)絡(luò)架構(gòu),訓(xùn)練它也是眾所周知的極其困難。首先,深度學(xué)習(xí)的損失函數(shù)通常不是凸函數(shù),這意味著訓(xùn)練并不一定產(chǎn)生最優(yōu)的可能解。第二,深度學(xué)習(xí)現(xiàn)在還是非常新的技術(shù),它的許多組成部分仍未被充分理解。舉個(gè)例子,批標(biāo)準(zhǔn)化(Batch Normalization)最近備受關(guān)注,因?yàn)樗坪鯇⑵浒谀承┠P椭惺侨〉昧己媒Y(jié)果的關(guān)鍵,但是專家無法就其原因達(dá)成一致。研究人員 Ali Rahimi 最近在一場機(jī)器學(xué)習(xí)會(huì)議上甚至把深度學(xué)習(xí)與煉金術(shù)相提并論,引發(fā)了一場論戰(zhàn)。

▌自動(dòng)特征工程

深度學(xué)習(xí)的復(fù)雜性促進(jìn)了一門叫表示學(xué)習(xí)(representation learning)的技術(shù)的發(fā)展,這也是為什么經(jīng)常有人說神經(jīng)網(wǎng)絡(luò)做的是“自動(dòng)特征工程”。簡單來說就是,我們不是讓人類來手動(dòng)從數(shù)據(jù)集中提取有效特征,而是構(gòu)建一個(gè)模型,讓模型可以自己學(xué)習(xí)對(duì)于當(dāng)前任務(wù)來說哪些是需要的和有用的特征。把特征工程的任務(wù)交給模型來處理非常有效,但是代價(jià)是模型需要龐大的數(shù)據(jù)量,也因此需要龐大的計(jì)算能力。

▌你可以做什么?

和其他機(jī)器學(xué)習(xí)方法相比,深度學(xué)習(xí)太過于復(fù)雜,看上去似乎無法將其整合到你的業(yè)務(wù)中。對(duì)于那些資源有限的組織機(jī)構(gòu)來說,這種感覺更加強(qiáng)烈。

對(duì)于那些需要走在前沿的組織機(jī)構(gòu)來說,可能的確需要聘請(qǐng)專家和購買專業(yè)的硬件設(shè)施。但是很多情況下這不是必需的。有方法可以讓你不需要進(jìn)行大量的投資就可以有效地應(yīng)用深度學(xué)習(xí)技術(shù)。這里就是遷移學(xué)習(xí)可以大展拳腳的地方了。

遷移學(xué)習(xí)可以讓知識(shí)從一個(gè)機(jī)器學(xué)習(xí)模型遷移到另一個(gè)模型上。這些模型可能是對(duì)模型結(jié)構(gòu)進(jìn)行了長年研究、用相當(dāng)多數(shù)據(jù)集對(duì)模型進(jìn)行訓(xùn)練、用數(shù)以年計(jì)的計(jì)算時(shí)間對(duì)模型進(jìn)行優(yōu)化而得到的結(jié)果。利用遷移學(xué)習(xí),你不需要承擔(dān)上面說的任何成本就能獲得這項(xiàng)工作的大部分好處!

什么是遷移學(xué)習(xí)

大多數(shù)機(jī)器學(xué)習(xí)任務(wù)始于零知識(shí),意思是它的結(jié)構(gòu)和模型的參數(shù)是從隨機(jī)猜測開始的。當(dāng)我們說模型是從頭開始學(xué)習(xí)的時(shí)候,意思也是如此。

隨機(jī)猜測開始訓(xùn)練的一個(gè)貓檢測模型。通過它見過的許多不同的貓,該模型從中整合出相同的模式,逐漸學(xué)習(xí)到貓是什么。

在這種情況下,該模型學(xué)習(xí)到的所有內(nèi)容都來自于你展示給它的數(shù)據(jù)。但是,這是解決問題的唯一方法嗎?在某些情況下,看上去的確如此。

貓檢測模型在不相關(guān)的應(yīng)用中,例如欺詐檢測,很有可能沒有什么用處。它只知道如何應(yīng)付貓的圖片,而不是信用卡交易。

但是在某些情況下,我們似乎可以在不同任務(wù)之間共享信息

貓檢測模型在相關(guān)任務(wù)中作用很大,例如貓的臉部定位。該檢測器已經(jīng)知道怎么檢測貓胡子,鼻子,以及眼睛,所有這些對(duì)于定位貓的臉部都很有用處。

這就是遷移學(xué)習(xí)的本質(zhì):采用一種模型,學(xué)習(xí)如何很好地完成某項(xiàng)任務(wù),將其部分或者所有知識(shí)遷移到一個(gè)相關(guān)的任務(wù)。

想想我們自己的學(xué)習(xí)經(jīng)驗(yàn),就會(huì)發(fā)現(xiàn)這其實(shí)很有道理:我們經(jīng)常遷移以往習(xí)得的技能,這樣可以更快地學(xué)習(xí)新的技能。舉個(gè)例子,學(xué)過投擲棒球的人不需要重新學(xué)習(xí)拋東西的機(jī)制就能很好地學(xué)習(xí)到怎么扔一個(gè)足球。這些任務(wù)本質(zhì)上是相通的,能夠處理其中一件任務(wù)的話自然而然可以把學(xué)習(xí)到的能力遷移到另一項(xiàng)任務(wù)。

在機(jī)器學(xué)習(xí)領(lǐng)域,可能過去 5 年最好的例子就是計(jì)算機(jī)視覺領(lǐng)域。現(xiàn)在幾乎沒人會(huì)從頭開始訓(xùn)練一個(gè)圖像模型。相反,我們會(huì)從一個(gè)預(yù)訓(xùn)練好的模型開始,這個(gè)模型已經(jīng)知道怎么區(qū)分一些簡單的對(duì)象,例如貓,狗,還有雨傘。學(xué)習(xí)區(qū)分圖像的模型首先學(xué)習(xí)如何檢測一些通用圖像特征,例如邊緣,形狀,文本,以及臉部。預(yù)訓(xùn)練模型具有以上這些的基本技能(還有更加具體的技能,例如區(qū)分狗和貓的能力)。

此時(shí),預(yù)訓(xùn)練的分類模型可以通過添加層或者在一個(gè)新的數(shù)據(jù)集上重新訓(xùn)練,來繼承那些花費(fèi)巨大而獲得的基本技能,然后將其延伸到新的任務(wù)。這就是遷移學(xué)習(xí)。

這種方法的好處很明顯。

▌遷移學(xué)習(xí)訓(xùn)練數(shù)據(jù)量需求量更小

當(dāng)你在一個(gè)與貓相關(guān)的新任務(wù)中重復(fù)使用你最喜愛的貓檢測模型時(shí),你的模型已經(jīng)擁有了“一百萬只貓的智慧”,這意味著你不需要再使用那么多的貓圖片來訓(xùn)練新任務(wù)了。減少訓(xùn)練數(shù)據(jù)量可以讓你在只有很少數(shù)據(jù),或者要獲得更多數(shù)據(jù)的成本過高或者不可能獲得更多數(shù)據(jù)的情況下也能訓(xùn)練,同時(shí)可以讓你在比較廉價(jià)的硬件設(shè)施上更快地訓(xùn)練模型。

▌遷移學(xué)習(xí)訓(xùn)練模型泛化能力更強(qiáng)

遷移學(xué)習(xí)可以改進(jìn)模型的泛化能力,或者說增強(qiáng)其在非訓(xùn)練數(shù)據(jù)上分類良好的能力。這是因?yàn)樵谟?xùn)練預(yù)訓(xùn)練模型時(shí),是有目的性地讓模型可以學(xué)習(xí)到對(duì)相關(guān)任務(wù)都很有用的通用特征。當(dāng)模型遷移到一個(gè)新任務(wù)時(shí),它將很難過擬合新的訓(xùn)練數(shù)據(jù),因?yàn)樗鼘H從一個(gè)很一般的知識(shí)庫中繼續(xù)學(xué)習(xí)而已。構(gòu)建一個(gè)泛化能力強(qiáng)的模型是機(jī)器學(xué)習(xí)中最難以及最重要的部分之一。

▌遷移學(xué)習(xí)訓(xùn)練過程更加魯棒

從一個(gè)預(yù)訓(xùn)練的模型開始,也可以避免訓(xùn)練一個(gè)帶有數(shù)百萬參數(shù)的復(fù)雜模型,這個(gè)過程非常令人沮喪,非常不穩(wěn)定,而且令人困惑。遷移學(xué)習(xí)可以將可訓(xùn)練參數(shù)的數(shù)量減少多達(dá) 100%,使得訓(xùn)練更穩(wěn)定,而且更容易調(diào)試。

▌遷移學(xué)習(xí)降低深度學(xué)習(xí)的入門門檻

最后,遷移學(xué)習(xí)降低深度學(xué)習(xí)的門檻,因?yàn)槟悴恍枰蔀閷<揖湍塬@得專家級(jí)的結(jié)果。舉例來說,流行的圖像分類模型 Resnet-50,這個(gè)特定的結(jié)構(gòu)是怎么選擇的呢?這是許多深度學(xué)習(xí)專家的多年研究和實(shí)驗(yàn)的結(jié)果。這個(gè)復(fù)雜的結(jié)構(gòu)中包含有 2500 萬個(gè)權(quán)重,如果沒有對(duì)這個(gè)模型中各個(gè)部件的深入了解,從頭優(yōu)化這些權(quán)重可以說是幾乎不可能的任務(wù)。幸運(yùn)的是,有了遷移學(xué)習(xí),你可以重用這個(gè)復(fù)雜的結(jié)構(gòu),以及這些優(yōu)化過的權(quán)重,因此顯著降低了深度學(xué)習(xí)的入門門檻。

多任務(wù)學(xué)習(xí)又是什么?

遷移學(xué)習(xí)是用于訓(xùn)練機(jī)器學(xué)習(xí)模型的知識(shí)共享技術(shù)的其中一種,已被證明是非常有效的。目前,知識(shí)共享技術(shù)中最有趣的兩種就是遷移學(xué)習(xí)和多任務(wù)學(xué)習(xí)。在遷移學(xué)習(xí)中,模型首先在單個(gè)任務(wù)中進(jìn)行訓(xùn)練,然后可以用于相關(guān)任務(wù)的起始點(diǎn)。在學(xué)習(xí)相關(guān)任務(wù)時(shí),原始的被遷移模型會(huì)學(xué)習(xí)如何專門處理新的任務(wù),而不需要擔(dān)心會(huì)不會(huì)影響其在原來任務(wù)上的效果。而在多任務(wù)學(xué)習(xí)中,單個(gè)模型一次性學(xué)習(xí)處理多個(gè)任務(wù),對(duì)模型的性能評(píng)估則取決于它學(xué)習(xí)之后能夠多好地完成這些任務(wù)。后續(xù)我們也會(huì)分析討論更過有關(guān)多任務(wù)學(xué)習(xí)的好處以及其何時(shí)能起作用。

結(jié)論

遷移學(xué)習(xí)是一項(xiàng)知識(shí)共享技術(shù),其可以減少構(gòu)建深度學(xué)習(xí)模型時(shí)對(duì)訓(xùn)練數(shù)據(jù)量,計(jì)算能力,以及工程人才的依賴。由于深度學(xué)習(xí)可以提供與傳統(tǒng)機(jī)器學(xué)習(xí)相比的顯著改進(jìn),遷移學(xué)習(xí)成為一項(xiàng)必不可少的工具。

想知道更多機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)、遷移學(xué)習(xí)這些算法是如何在具體應(yīng)用和業(yè)務(wù)中發(fā)揮作用的,我們會(huì)在 2018 AI開發(fā)者大會(huì)上進(jìn)行更多分享。感興趣的同學(xué)們一定要關(guān)注我們哦!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    遷移學(xué)習(xí)的原理,基于Keras實(shí)現(xiàn)遷移學(xué)習(xí)

    我面對(duì)的大多數(shù)計(jì)算機(jī)視覺問題沒有非常大的數(shù)據(jù)集(5000-40000圖像)。即使使用極端的數(shù)據(jù)增強(qiáng)策略,也很難達(dá)到像樣的精確度。而在少量數(shù)據(jù)集上訓(xùn)練數(shù)百萬參數(shù)的網(wǎng)絡(luò)通常會(huì)導(dǎo)致過擬合。所以遷移學(xué)習(xí)是我的救星。
    的頭像 發(fā)表于 05-09 03:44 ?1.5w次閱讀
    <b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>的原理,基于Keras實(shí)現(xiàn)<b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>

    基于稀疏編碼的遷移學(xué)習(xí)及其在行人檢測中的應(yīng)用

    一定進(jìn)展,但大都需要大量的訓(xùn)練數(shù)據(jù).針對(duì)這一問題,提出了一種基于遷移學(xué)習(xí)的半監(jiān)督行人分類方法:首先基于稀疏編碼,從任意的未標(biāo)記樣本中,學(xué)習(xí)到一個(gè)緊湊、有效的特征表示;然后通過遷移
    發(fā)表于 04-24 09:48

    遷移學(xué)習(xí)訓(xùn)練網(wǎng)絡(luò)

    keras 之 遷移學(xué)習(xí),改變VGG16輸出層,用imagenet權(quán)重retrain
    發(fā)表于 09-09 11:02

    【木棉花】學(xué)習(xí)筆記--分布式遷移

    也可以查看我上一篇學(xué)習(xí)筆記了解一下。那今天我要整理到學(xué)習(xí)筆記中的呢,就是分布式能力里算是比較簡單的分布式遷移。為了更好地熟練掌握鴻蒙手機(jī)應(yīng)
    發(fā)表于 09-05 10:49

    【木棉花】學(xué)習(xí)筆記--分布式遷移+回遷

    前言我又來啦,相信那些不了解分布式的童鞋,學(xué)習(xí)過我前幾篇學(xué)習(xí)筆記了之后是不是會(huì)更加理解了一些呢。當(dāng)然了,我這星期要整理到學(xué)習(xí)筆記中的也是和分布式能力相關(guān)的一個(gè)
    發(fā)表于 09-07 20:09

    學(xué)習(xí)嵌入式Linux應(yīng)用層的開發(fā)

    1 應(yīng)用層與驅(qū)動(dòng)層要想學(xué)習(xí)嵌入式Linux應(yīng)用層的開發(fā),首先要區(qū)分好應(yīng)用層和驅(qū)動(dòng)層之間的關(guān)系。我們本科階段
    發(fā)表于 11-02 10:20

    遷移學(xué)習(xí)

    的適用范圍。No.2 第二天 五、遷移學(xué)習(xí)前沿方法介紹深度遷移網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)深度遷移學(xué)習(xí)目標(biāo)函數(shù)設(shè)計(jì)全新場景下的
    發(fā)表于 04-21 15:15

    讓基于μC/OS-III開發(fā)的應(yīng)用層無感地遷移到RT-Thread操作系統(tǒng)

    1、讓基于μC/OS-III開發(fā)的應(yīng)用層無感地遷移到RT-Thread操作系統(tǒng)之前學(xué)習(xí)過μCOS-III操作系統(tǒng),意圖轉(zhuǎn)向學(xué)習(xí)RT-Thread國產(chǎn)操作系統(tǒng)。本兼容層可以幫您用已有的μ
    發(fā)表于 07-18 14:23

    數(shù)據(jù)遷移的難點(diǎn)及其解決方案淺析

    、網(wǎng)絡(luò),以及存儲(chǔ)等六種層級(jí)功能的數(shù)據(jù)遷移方案,從不同的維度,不同的層面,保障我們客戶的數(shù)據(jù)遷移過程可靠與高效。 華為融合數(shù)據(jù)遷移解決方案的六層級(jí)功能 華為融合數(shù)據(jù)
    發(fā)表于 10-13 17:05 ?14次下載
    數(shù)據(jù)<b class='flag-5'>遷移</b>的難點(diǎn)<b class='flag-5'>及其</b>解決方案淺析

    了解遷移學(xué)習(xí),哪種情況適合做遷移學(xué)習(xí)

    算法的基本思想是 從源 Domain 數(shù)據(jù)中篩選有效數(shù)據(jù),過濾掉與目標(biāo) Domain 不match的數(shù)據(jù),通過 Boosting方法建立一種權(quán)重調(diào)整機(jī)制,增加有效數(shù)據(jù)權(quán)重,降低無效數(shù)據(jù)權(quán)重,下圖是 TrAdaBoost 算法的示意圖(截圖來自于 莊福振 - 遷移學(xué)習(xí)研究
    的頭像 發(fā)表于 08-05 10:39 ?6345次閱讀
    <b class='flag-5'>了解</b><b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>,哪種情況適合做<b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>?

    基于脈沖神經(jīng)網(wǎng)絡(luò)的遷移學(xué)習(xí)算法

    傳播網(wǎng)絡(luò)完成訓(xùn)練過程,并通過脈沖編碼規(guī)則和自適應(yīng)的權(quán)值映射關(guān)系,將訓(xùn)練結(jié)果遷移至脈沖神經(jīng)網(wǎng)絡(luò)。實(shí)驗(yàn)結(jié)果表明,多層脈沖神經(jīng)網(wǎng)絡(luò)中,遷移學(xué)習(xí)算法能夠有效解決訓(xùn)練過程中收斂困難的問題,
    發(fā)表于 05-24 16:03 ?15次下載

    人工智能學(xué)習(xí) 遷移學(xué)習(xí)實(shí)戰(zhàn)進(jìn)階

    問題的分類 經(jīng)典機(jī)器學(xué)習(xí)算法介紹 章節(jié)目標(biāo):機(jī)器學(xué)習(xí)是人工智能的重要技術(shù)之一,詳細(xì)了解機(jī)器學(xué)習(xí)的原理、機(jī)制和方法,為學(xué)習(xí)深度
    的頭像 發(fā)表于 04-28 17:13 ?1614次閱讀
    人工智能<b class='flag-5'>學(xué)習(xí)</b> <b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>實(shí)戰(zhàn)進(jìn)階

    一文詳解遷移學(xué)習(xí)

    引導(dǎo)(TOAST),這是一種新的遷移學(xué)習(xí)算法,它可以凍結(jié)預(yù)先訓(xùn)練的骨干模型,選擇與任務(wù)相關(guān)的特征輸出,并將這些特征反饋到模型中,以引導(dǎo)注意力關(guān)注特定任務(wù)的特征。僅通過重新聚焦注意力,TOAST多個(gè)
    的頭像 發(fā)表于 08-11 16:56 ?6420次閱讀
    一文詳解<b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>

    視覺深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架Torchvision介紹

    Torchvision是基于Pytorch的視覺深度學(xué)習(xí)遷移學(xué)習(xí)訓(xùn)練框架,當(dāng)前支持的圖像分類、對(duì)象檢測、實(shí)例分割、語義分割、姿態(tài)評(píng)估模型的遷移學(xué)習(xí)
    的頭像 發(fā)表于 09-22 09:49 ?943次閱讀
    視覺深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>遷移</b><b class='flag-5'>學(xué)習(xí)</b>訓(xùn)練框架Torchvision介紹

    預(yù)訓(xùn)練和遷移學(xué)習(xí)的區(qū)別和聯(lián)系

    預(yù)訓(xùn)練和遷移學(xué)習(xí)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的兩個(gè)重要概念,它們提高模型性能、減少訓(xùn)練時(shí)間和降低對(duì)數(shù)據(jù)量的需求方面發(fā)揮著關(guān)鍵作用。本文將從定
    的頭像 發(fā)表于 07-11 10:12 ?1176次閱讀
    主站蜘蛛池模板: 撅高 自己扒开 调教 | 国产成人久久精品激情 | 麻豆狠色伊人亚洲综合网站 | 国产精彩视频在线 | 恋老视频 国产国佬 | 日产精品久久久久久久蜜殿 | 亚洲色欲国产免费视频 | 捆绑调教网站 | 国产99r视频精品免费观看 | 快播av种子大全 | 青草伊人久久 | 免费精品美女久久久久久久久 | 穿着丝袜被男生强行啪啪 | 免费一级毛片在线观看 | 无人区乱码区1卡2卡三卡在线 | 免费小视频在线观看 | 老司机深夜福利ae 入口网站 | 俄罗斯少女人体 | 日韩精品无码视频一区二区蜜桃 | 中文字幕在线免费视频 | 苍井空小公主qvod | 午夜精品久久久久久久99蜜桃 | jk制服啪啪网站 | 国产精品外围在线观看 | 亚洲精品无码专区在线播放 | 国产香蕉视频在线播放 | 久久是热频国产在线 | 国产亚洲中文字幕视频 | 99国产精品 | 老师系列高H文 | 亚洲日本一区二区三区在线不卡 | 亚洲国语在线视频手机在线 | 99RE6国产精品视频播放 | 狠狠色狠狠色综合 | 亚洲国产精品99久久久久久 | 久久国产精品高清一区二区三区 | 亚洲视频91| FREEXXX性乌克兰XXX | 99热在线精品免费全部my | 亚洲 欧美 国产 综合五月天 | 久久精品电影久久电影大全 |