色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

對比學習中的4種典型范式的應用分析

深度學習自然語言處理 ? 來源:圓圓的算法筆記 ? 作者:Fareise ? 2022-07-08 11:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

對比學習是無監(jiān)督表示學習中一種非常有效的方法,核心思路是訓練query和key的Encoder,讓這個Encoder對相匹配的query和key生成的編碼距離接近,不匹配的編碼距離遠。想讓對比學習效果好,一個核心點是擴大對比樣本(負樣本)的數(shù)量,即每次更新梯度時,query見到的不匹配key的數(shù)量。負樣本數(shù)量越多,越接近對比學習的實際目標,即query和所有不匹配的key都距離遠。

對比學習目前有4種最典型的范式,分別為End-to-End、Memory Bank、Momentum Encoder以及In-Batch Negtive。這幾種對比學習結(jié)構(gòu)的差異主要體現(xiàn)在對負樣本的處理上,4種方法是一種逐漸演進的關系。下面,我們來看看4種對比學習結(jié)構(gòu)的經(jīng)典工作。關于對比學習的損失函數(shù),建議參考之前的文章表示學習中的7大損失函數(shù)梳理。

End-to-End End-to-End是一種最直接的對比學習方法,對于一個query,每次采樣一個正樣本以及多個負樣本,使用對比學習loss計算損失,正樣本和負樣本都進行梯度反向傳播。下面介紹幾篇End-to-End的對比學習經(jīng)典論文。

第一篇是Unsupervised Embedding Learning via Invariant and Spreading Instance Feature(2019)。本文的目標是學習圖像好的表示,滿足相似的圖像embedding離得近,不相似的圖像embedding離得遠的特點。具體的,希望同一個圖像經(jīng)過不同的數(shù)據(jù)增強方式進行轉(zhuǎn)換后,能夠具有embedding的不變性,同時不同圖像的embedding有明顯差異。

這篇文章在原來每個樣本為一個類別的分類基礎上進行了優(yōu)化,將每個圖像進行一種數(shù)據(jù)增強的轉(zhuǎn)換后,去讓轉(zhuǎn)換前后的圖像的embedding離得更近。首先采樣一個batch的圖像,然后對每一個圖像使用一種數(shù)據(jù)增強方法進行轉(zhuǎn)換。優(yōu)化的目標是讓每一個圖像xi轉(zhuǎn)換后的圖像xi‘能夠被分為xi這個樣本的類別。模型的訓練仍然采用多個二分類的方式,每個樣本的loss可以表示為:

最終采用底層共享參數(shù)的孿生網(wǎng)絡結(jié)構(gòu)進行模型訓練。在訓練階段,每個樣本的會使用該batch內(nèi)其他樣本作為負樣本進行訓練,并使用一種隨機的argumentation策略生成一個正樣本。

LEARNING DEEP REPRESENTATIONS BY MUTUAL INFORMATION ESTIMATION AND MAXIMIZATION(ICLR 2019,DIM)是另一個典型的End-to-End對比學習框架。本文提出在Deep InfoMax基礎上進行對比學習,首先介紹一下Deep InfoMax。Deep InfoMax是一種無監(jiān)督圖像表示學習方法,目標是讓輸入樣本和其經(jīng)過Encoder后的表示互信息最大,互信息越大表明兩個變量相關性越強,互信息可以采用InfoNCE、Jensen-Shannon MI estimator等方法求解。

具體實現(xiàn)上,隨機采樣一個圖像,經(jīng)過卷積得到feature map f(x),再經(jīng)過網(wǎng)絡得到一個圖像的表示向量h(f(x)),整個過程相當于取了整個encoder中某一層的表示f(x),以及encoder的最終輸出h(f(x)),讓這兩個表示的互信息盡可能大。同時隨機選擇其他圖像,生成其feature map f(x’)。這樣f(x)和h(f(x))構(gòu)成正樣本,f(x‘)和h(f(x))構(gòu)成負樣本,再代入loss進行優(yōu)化?;舅悸凡捎昧薓INE的方法,去求一個下界。使用一個discriminator去判別輸入是配對的feature map和representaion的聯(lián)合概率分布還是不配對的feature map和representaion的邊緣概率分布的乘積。

最終學習的是中間表示中某一個部分的信息和最終encoder得到feature的相關性,互信息可以理解為在是否獲取encoder最終表示的情況下,我們能預測出的中間層某部分的表示會好多少。這是使用相對的預估能力而非絕對的預估能力進行評估。

Learning Representations by Maximizing Mutual Information Across Views(2019)擴展了DIM,學習一個圖像的兩種不同增強方式的互信息最小。DIM使用同一張圖像最終層和中間層的表示計算互信息,而本文采用一個圖像的不同增強后的view計算。

End-to-End方法的主要問題在于,采樣的負樣本數(shù)量受到GPU內(nèi)存限制,因此這種方法的每次更新能夠使用到的負樣本數(shù)量非常有限,影響了對比學習效果。 Memory Bank 針對End-to-End負樣本采樣數(shù)量受GPU內(nèi)存限制的問題,基于Memory Bank的方法進入人們視野。Memory Bank的核心思路是,將某一輪模型對數(shù)據(jù)集中所有樣本的表示存儲起來,這些樣本在作為負樣本時,可以不進行梯度更新,極大提升了每個batch負樣本數(shù)量。

Memory Bank對比學習的主要論文是Unsupervised feature learning via non-parametric instance discrimination(ICLR 2018)。當進行圖像分類時,如果兩個類別的圖像相似,那么模型更容易把這兩類的預測搞混,softmax得分排第二的的類別往往是和待預測類別比較相似的。這說明模型在學習的過程中,能夠從圖像數(shù)據(jù)本身學出哪些圖片表達相似的事物,而不需要引入標簽。因此本文希望只利用無監(jiān)督的圖片,就學習出比較好的圖像表示,將原來的分類問題進行一個擴展,每個圖片視為一個類別,做多分類任務,這樣無需有監(jiān)督數(shù)據(jù)就能學習圖像表示。同時,將softmax中每個類別對應的權重替換為每個樣本的embedding結(jié)果,將原來的softmax去掉每個類別的權重參數(shù)w后變?yōu)榱?non-parametric softmax,最終表示為:

然而一個圖像為一個類別帶來的問題是計算softmax多分類損失時,分類的類別數(shù)和樣本數(shù)相同。因此本文提出利用InfoNCE loss來近似擬合softmax多分類損失,它與層次softmax、negative sampling都是解決類別較多時多分為問題的高效方法。InfoNCE loss將多分類問題轉(zhuǎn)換為多個二分類問題,原來是預測當前樣本屬于哪個類別,轉(zhuǎn)換成判斷每個樣本(一個正樣本和多個負樣本)是否和當前樣本匹配,或區(qū)分數(shù)據(jù)樣本和噪聲樣本。 為了提升運行效率,本文采用Model Bank的方法,每個樣本的表示更新后會存儲到model bank中。下次需要負樣本的時候直接從model bank取該樣本表示,而不會進行前向計算和反向傳播。每個類別只有一個樣本會導致模型訓練不穩(wěn)定,因此本文在損失函數(shù)中引入平滑項,讓模型在t輪迭代計算的表示和t-1輪相似,引入兩輪表示的L2正則。隨著模型不斷收斂,這一項L2正則會逐漸變?yōu)?,整體又變成原來的InfoNCE loss。

Model Bank方法的問題在于,Model Bank中存儲的樣本表示不是最新訓練的encoder產(chǎn)出的,和當前encoder生成的表示有一定差異,導致模型訓練過程存在問題,例如當前encoder產(chǎn)出的編碼可能要和n輪迭代之前產(chǎn)出的encoder編碼做比較。同時,Model Bank側(cè)兩次樣本表示更新不具備連續(xù)性,也會導致訓練不穩(wěn)定 Momentum Encoder Momentum Encoder主要為了解決Model Bank中每個樣本緩存的表示和Encoder更新不一致的問題。Momentum Encoder的核心思路是,模型在key側(cè)的encoder不進行訓練,而是平滑拷貝query側(cè)encoder的參數(shù),如下面的公式:

這種更新方式保證了key側(cè)參數(shù)的平滑性,且每次都能用最新的參數(shù)得到key側(cè)樣本的表示結(jié)果。典型的Momentum Encoder工作是Facebook提出的MoCo,論文Momentum Contrast for Unsupervised Visual Representation Learning。

In-Batch Negtive In-Batch Negtive也是對比學習中經(jīng)常采用的一種擴大負樣本數(shù)量的方法。對于匹配問題,假設每個batch內(nèi)有N個正樣本對,那么讓這N個正樣本之間互為負樣本,這樣每個樣本就自動生成了2*(N-1)個負樣本。這種技巧提出的很早,在近期對比學習中又得到非常廣泛的應用。

A Simple Framework for Contrastive Learning of Visual Representations(2020)就采用了In-Btahc Negtive的方法。此外,本文也提出了對比學習的一些關鍵發(fā)現(xiàn),包括對數(shù)據(jù)的argumentation的方式、batch size的大小、生成的embedding進行normalize、對對比學習loss的temperature進行調(diào)節(jié)都對對比學習效果有重要影響。融合了上述優(yōu)化,本文提出SimCLR對比學習框架,以最大化同一個圖像經(jīng)過不同argumentation后表示的相關性為目標。整個流程分為3個步驟,首先對圖像進行兩種不同的增強得到一對正樣本,然后經(jīng)過Encoder得到表示,最后將表示映射后計算對比學習loss,采用In-Batch Negtive的方法進行學習。

在圖像和文本匹配的多模態(tài)領域,In-Batch Negtive也非常常用,例如Learning Transferable Visual Models From Natural Language Supervision提出的CLIP模型。In-Batch Negtive的優(yōu)點是非常簡單,計算量不會顯著增加。缺點是負樣本只能使用每個batch內(nèi)的數(shù)據(jù),是隨機采樣的,無法針對性的構(gòu)造負樣本。

總結(jié) 本文總結(jié)了對比學習的4種基本訓練結(jié)構(gòu),包括End-to-End、Memory Bank、Momentum Encoder以及In-Batch Negtive,以及各自的優(yōu)缺點。對比學習訓練方式發(fā)展的核心是,如何實現(xiàn)量級更大、質(zhì)量更好、更平穩(wěn)的負樣本表示。通過優(yōu)化負樣本,可以顯著提升對比學習的效果。 審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4956

    瀏覽量

    131416
  • 編碼
    +關注

    關注

    6

    文章

    969

    瀏覽量

    55822

原文標題:對比學習中的4種經(jīng)典訓練模式

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 0人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    如何將一個FA模型開發(fā)的聲明式范式應用切換到Stage模型

    模型切換概述 本文介紹如何將一個FA模型開發(fā)的聲明式范式應用切換到Stage模型,您需要完成如下動作: 工程切換:新建一個Stage模型的應用工程。 配置文件切換:config.json切換
    發(fā)表于 06-04 06:22

    國內(nèi)外電機結(jié)構(gòu) 工藝對比分析

    純分享帖,需要者可點擊附件免費獲取完整資料~~~*附件:國內(nèi)外電機結(jié)構(gòu) 工藝對比分析.pdf【免責聲明】本文系網(wǎng)絡轉(zhuǎn)載,版權歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權問題,請第一時間告知,刪除內(nèi)容!
    發(fā)表于 05-29 14:06

    主流汽車電子SoC芯片對比分析

    主流汽車電子SoC芯片對比分析 隨著汽車智能化、電動化趨勢加速,系統(tǒng)級芯片(SoC)已成為汽車電子核心硬件。本文從技術參數(shù)、市場定位、應用場景及國產(chǎn)化進程等維度,對主流汽車電子SoC芯片進行對比分析
    的頭像 發(fā)表于 05-23 15:33 ?1929次閱讀

    電子元器件失效分析典型案例(全彩版)

    元器件的典型失效分析案例。 純分享貼,有需要可以直接下載附件獲取完整資料! (如果內(nèi)容有幫助可以關注、點贊、評論支持一下哦~)
    發(fā)表于 04-10 17:43

    電子工程師如何利用AI革新設計范式

    在AI重構(gòu)電子產(chǎn)品設計范式的進程,工程師們應如何平衡創(chuàng)新與風險,以確保在提升設計效率和產(chǎn)品性能的同時,有效應對安全、隱私和數(shù)據(jù)質(zhì)量等挑戰(zhàn)?
    的頭像 發(fā)表于 03-19 15:17 ?671次閱讀

    【「典型電子電路設計與測試」閱讀體驗】運算放大器電路閱讀體驗

    、瞬態(tài)分析,設置仿真時間為2ms,最大步長為5us,結(jié)果顯示輸入和輸出電壓波形,驗證了電路實現(xiàn)2倍同相放大的功能。 4、電阻變化對增益和帶寬的影響?:通過改變電阻R2的值,可以觀察到增益和帶寬的變化
    發(fā)表于 02-23 10:56

    半導體激光器和光纖激光器的對比分析

    半導體激光器和光纖激光器是現(xiàn)代激光技術的兩重要類型,它們在結(jié)構(gòu)、工作原理、性能及應用領域等方面有著顯著的區(qū)別。本文將從增益介質(zhì)、發(fā)光機理、散熱性能、輸出特性及應用領域等多個方面,對這兩激光器進行詳細的
    的頭像 發(fā)表于 02-03 14:18 ?1553次閱讀

    名單公布!【書籍評測活動NO.54】典型電子電路設計與測試

    5個工作日內(nèi)未聯(lián)系,視為放棄本次試用評測資格! 本書主要對運算放大器電路、波形發(fā)生電路、功率放大電路、信號隔離和轉(zhuǎn)換電路等典型電子電路進行設計與測試,包括工作原理分析、參數(shù)計算、仿真驗證,以及實際
    發(fā)表于 01-06 11:17

    投影機對比度與動態(tài)對比度的區(qū)別及運用

    )、色度(Tint)、銳度(Sharpness)、色溫設定(Color Temperature)等。其中的對比度,是對信號(圖像或視頻)的亮度差異的調(diào)整。 它通過增加或減少圖像相鄰像素之間的灰度級差異來
    的頭像 發(fā)表于 12-20 14:03 ?1616次閱讀
    投影機<b class='flag-5'>中</b><b class='flag-5'>對比</b>度與動態(tài)<b class='flag-5'>對比</b>度的區(qū)別及運用

    zeta在機器學習的應用 zeta的優(yōu)缺點分析

    在探討ZETA在機器學習的應用以及ZETA的優(yōu)缺點時,需要明確的是,ZETA一詞在不同領域可能有不同的含義和應用。以下是根據(jù)不同領域的ZETA進行的分析: 一、ZETA在機器學習
    的頭像 發(fā)表于 12-20 09:11 ?1147次閱讀

    RoCE與IB對比分析(二):功能應用篇

    在上一篇,我們對RoCE、IB的協(xié)議棧層級進行了詳細的對比分析,二者本質(zhì)沒有不同,但基于實際應用的考量,RoCE在開放性、成本方面更勝一籌。本文我們將繼續(xù)分析RoCE和IB在擁塞控制、QoS、ECMP三個關鍵功能
    的頭像 發(fā)表于 11-15 14:03 ?1328次閱讀
    RoCE與IB<b class='flag-5'>對比分析</b>(二):功能應用篇

    NPU在深度學習的應用

    設計的硬件加速器,它在深度學習的應用日益廣泛。 1. NPU的基本概念 NPU是一專門針對深度學習算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和GPU有所不同。NPU通常具有高度并行的處理能
    的頭像 發(fā)表于 11-14 15:17 ?1959次閱讀

    網(wǎng)關和路由器的對比分析

    網(wǎng)關和路由器作為計算機網(wǎng)絡的關鍵設備,各自承擔著不同的角色和功能。下面將從定義、功能、應用場景、性能等多個方面對網(wǎng)關和路由器進行對比分析。
    的頭像 發(fā)表于 08-27 10:20 ?2849次閱讀

    激光錫焊與回流焊接對焊點影響的對比分析

    針對電子裝聯(lián)技術的特點,激光錫焊與回流焊接在對焊點影響方面做以下對比分析。
    的頭像 發(fā)表于 08-23 11:19 ?892次閱讀

    工業(yè)電機驅(qū)動器典型短路事件

    驅(qū)動器的三典型短路事件:逆變器直通、相對相短路以及相線對地短路,并對每種事件的原因、影響及應對措施進行詳細分析。
    的頭像 發(fā)表于 07-25 10:45 ?2082次閱讀
    主站蜘蛛池模板: 亚洲欧美激情精品一区二区 | 最近中文字幕MV高清在线视频 | 干了快生了的孕妇 | 69亞洲亂人倫AV精品發布 | 成人毛片18岁女人毛片免费看 | 亚洲第一成年人网站 | qvod电影| 国产成人啪精品视频免费网 | 婷婷四房播客五月天 | 无码人妻精品一区二区蜜桃色 | 国产69精品久久久久乱码韩国 | 国产色精品久久人妻无码看片软件 | 18禁黄无遮挡禁游戏在线下载 | 91进入蜜桃臀在线播放 | 暖暖视频免费高清在线观看 视频 | 棉袜足j吐奶视频 | porono日本xxx| 久久久视频2019午夜福利 | 一本道久在线综合色姐 | 免费中文字幕视频 | 精品手机在线视频 | 国产呦精品一区二区三区网站 | 噼里啪啦免费观看视频大全 | 91久久夜色精品 | 在线视频 国产精品 中文字幕 | 交换:年轻夫妇-HD中文字幕 | 国产精品人妻无码免费A片导航 | 国产成久久免费精品AV片天堂 | 国产精品日本欧美一区二区 | 无套日出白浆在线播放 | 国产AV国片精品无套内谢无码 | 51vv视频社区 | 国语自产视频在线不卡 | 亚洲精品乱码久久久久久直播 | 亚洲二区电影 | 一本大道无码AV天堂欧美 | 肉动漫无码无删减在线观看 | 好爽胸大好深好多水 | 99久久精品国产交换 | 帅哥操帅哥 | 国产成人欧美日韩在线电影 |

    電子發(fā)燒友

    中國電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品