色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

文本噪聲標(biāo)簽在預(yù)訓(xùn)練語(yǔ)言模型(PLMs)上的特性

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:深度學(xué)習(xí)自然語(yǔ)言 ? 2022-10-12 09:50 ? 次閱讀

數(shù)據(jù)的標(biāo)簽錯(cuò)誤隨處可見(jiàn),如何在噪聲數(shù)據(jù)集上學(xué)習(xí)到一個(gè)好的分類器,是很多研究者探索的話題。在 Learning With Noisy Labels 這個(gè)大背景下,很多方法在圖像數(shù)據(jù)集上表現(xiàn)出了非常好的效果。

而文本的標(biāo)簽錯(cuò)誤有時(shí)很難鑒別。比如對(duì)于一段文本,可能專家對(duì)于其主旨類別的看法都不盡相同。這些策略是否在語(yǔ)言模型,在文本數(shù)據(jù)集上表現(xiàn)好呢?本文探索了文本噪聲標(biāo)簽在預(yù)訓(xùn)練語(yǔ)言模型(PLMs)上的特性,提出了一種新的學(xué)習(xí)策略 SelfMix,并機(jī)器視覺(jué)上常用的方法應(yīng)用于預(yù)訓(xùn)練語(yǔ)言模型作為 baseline。

為什么選 PLMs

我們對(duì)于常見(jiàn)語(yǔ)言分類模型在帶噪文本數(shù)據(jù)集上做了一些前期實(shí)驗(yàn),結(jié)果如下:

26bb6bd2-497f-11ed-a3b6-dac502259ad0.png

首先,毫無(wú)疑問(wèn),預(yù)訓(xùn)練模型(BERT,RoBERTa)的表現(xiàn)更好。其次,文章提到,預(yù)訓(xùn)練模型已經(jīng)在大規(guī)模的預(yù)訓(xùn)練語(yǔ)料上獲得了一定的類別先驗(yàn)知識(shí)。故而在有限輪次訓(xùn)練之后,依然具有較高的準(zhǔn)確率,如何高效利用預(yù)訓(xùn)練知識(shí)處理標(biāo)簽噪聲,也是一個(gè)值得探索的話題。

預(yù)訓(xùn)練模型雖然有一定的抗噪學(xué)習(xí)能力,但在下游任務(wù)的帶噪數(shù)據(jù)上訓(xùn)練時(shí)也會(huì)受到噪聲標(biāo)簽的影響,這種現(xiàn)象在少樣本,高噪聲比例的設(shè)置下更加明顯。

26d1e2ae-497f-11ed-a3b6-dac502259ad0.png

方法

由此,我們提出了 SelfMix,一種對(duì)抗文本噪聲標(biāo)簽的學(xué)習(xí)策略。

基礎(chǔ)模型上,我們采用了 BERT encoder + MLP 這一常用的分類范式。

270fa0da-497f-11ed-a3b6-dac502259ad0.png

針對(duì)帶噪學(xué)習(xí)策略,主要可以分為兩個(gè)部分

Sample Selection

Semi-supervised Learning

Sample Selection

Sample Selection 部分對(duì)于原始數(shù)據(jù)集 ,經(jīng)過(guò)模型的一次傳播,根據(jù)每個(gè)樣本對(duì)應(yīng)的 loss,通過(guò) 2 核的 GMM 擬合將數(shù)據(jù)集分為干凈和帶噪聲的兩個(gè)部分,分別為 和 。因?yàn)槠渲?被認(rèn)為是噪聲數(shù)據(jù)集,所以其標(biāo)簽全部被去除,認(rèn)為是無(wú)標(biāo)簽數(shù)據(jù)集。

這里的 GMM,簡(jiǎn)單的來(lái)講其實(shí)可以看作是根據(jù)整體的 loss 動(dòng)態(tài)擬合出一個(gè)閾值(而不是規(guī)定一個(gè)閾值,因?yàn)樵谟?xùn)練過(guò)程中這個(gè)閾值會(huì)變化),將 loss 位于閾值兩邊的分別分為 clean samples 和 noise samples。

Semi-supervised Learning

關(guān)于 Semi-supervised Learning 部分,SelfMix 首先利用模型給給無(wú)標(biāo)簽的數(shù)據(jù)集打偽標(biāo)簽(這里采用了 soft label 的形式),得到 。因?yàn)榇騻螛?biāo)簽需要模型在這個(gè)下游任務(wù)上有一定的判別能力,所以模型需要預(yù)先 warmup 的少量的步數(shù)。

Textual Mixup」:文中采用了句子 [CLS] embedding 做 mixup。Mixup 也是半監(jiān)督和魯棒學(xué)習(xí)中經(jīng)常采用的一個(gè)策略。

27757996-497f-11ed-a3b6-dac502259ad0.png

「Pseudo-Loss」:文中的解釋比較拗口,其實(shí)本質(zhì)也是一種在半監(jiān)督訓(xùn)練過(guò)程中常用的對(duì)模型輸出墑的約束。

27a9d40c-497f-11ed-a3b6-dac502259ad0.png

「Self-consistency Regularization」:其他的很多帶噪學(xué)習(xí)方法大都是多模型集成決策的想法,但我們認(rèn)為可以利用 dropout 機(jī)制來(lái)使得單個(gè)模型做自集成。噪聲數(shù)據(jù)因?yàn)榕c標(biāo)簽的真實(shí)分布相悖,往往會(huì)導(dǎo)致子模型之間產(chǎn)生很大的分歧,我們不希望在高噪聲環(huán)境下子模型的分歧越來(lái)越大,故而采用了 R-Drop 來(lái)約束子模型。具體的做法是,計(jì)算兩次傳播概率分布之間的 KL 散度,作為 loss 的一部分,并且消融實(shí)驗(yàn)證明這個(gè)方法是十分有效的。

27c65db6-497f-11ed-a3b6-dac502259ad0.png

實(shí)驗(yàn)

我們?cè)?IDN (Instance-Dependent Noise) 和 Asym (Asymmetric Noise) 做了實(shí)驗(yàn),并且對(duì)數(shù)據(jù)集做了切分來(lái)擬合數(shù)據(jù)充分和數(shù)據(jù)補(bǔ)充的情況,并設(shè)置了不同比例的標(biāo)簽噪聲來(lái)擬合微量噪聲至極端噪聲下的情況,上圖!

ASYM 噪聲實(shí)驗(yàn)結(jié)果

ASYM 噪聲按照一個(gè)特定的噪聲轉(zhuǎn)移矩陣將一個(gè)類別樣本的標(biāo)簽隨機(jī)轉(zhuǎn)換為一個(gè)特定類別的標(biāo)簽,來(lái)形成類別之間的混淆。

27e07714-497f-11ed-a3b6-dac502259ad0.png

IDN 噪聲實(shí)驗(yàn)結(jié)果

為了擬合基于樣本特征的錯(cuò)標(biāo)情況,我們訓(xùn)練了一個(gè)LSTM文本分類,對(duì)于一個(gè)樣本,將LSTM對(duì)于其預(yù)測(cè)結(jié)果中更容易錯(cuò)的類別作為其可能的噪聲標(biāo)簽。

27ff3d48-497f-11ed-a3b6-dac502259ad0.png

其他的一些討論

GMM 是否有效:從 a-c, d-f 可看出高斯混合模型能夠比較充分得擬合 clean 和 noise 樣本的 loss 分布。

SelfMix 對(duì)防止模型過(guò)擬合噪聲的效果是否明顯:d, h 兩張圖中,BERT-base 和 SelfMix 的 warmup 過(guò)程是完全一致的,warmup 過(guò)后 SelfMix 確實(shí)給模型的性能帶來(lái)了一定的提升,并且趨于穩(wěn)定,有效避免了過(guò)擬合噪聲的現(xiàn)象。285999be-497f-11ed-a3b6-dac502259ad0.png

考慮到模型最終的優(yōu)化目標(biāo)包括三個(gè)項(xiàng),我們做了消融實(shí)驗(yàn),分別去掉其中一個(gè)約束來(lái)看看模型表現(xiàn)如何,最終證明每個(gè)約束確實(shí)對(duì)于處理噪聲標(biāo)簽有幫助。

287fbe82-497f-11ed-a3b6-dac502259ad0.png

審核編輯:彭靜

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 噪聲
    +關(guān)注

    關(guān)注

    13

    文章

    1122

    瀏覽量

    47442
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    530

    瀏覽量

    10298
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24739

原文標(biāo)題:COLING'22 | SelfMix:針對(duì)帶噪數(shù)據(jù)集的半監(jiān)督學(xué)習(xí)方法

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

    隨著預(yù)訓(xùn)練語(yǔ)言模型(PLMs)的不斷發(fā)展,各種NLP任務(wù)設(shè)置都取得了不俗的性能。盡管
    的頭像 發(fā)表于 04-02 17:21 ?9665次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的基礎(chǔ)技術(shù)

    之后,成為文本建模領(lǐng)域的熱門(mén)架構(gòu)。不僅如此,它還對(duì)自然語(yǔ)言處理領(lǐng)域產(chǎn)生了深遠(yuǎn)的影響。基于Transformer的預(yù)訓(xùn)練模型,如GPT系列和B
    發(fā)表于 05-05 12:17

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型預(yù)訓(xùn)練

    語(yǔ)言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無(wú)需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對(duì)預(yù)
    發(fā)表于 05-07 17:10

    預(yù)訓(xùn)練語(yǔ)言模型設(shè)計(jì)的理論化認(rèn)識(shí)

    在這篇文章中,我會(huì)介紹一篇最新的預(yù)訓(xùn)練語(yǔ)言模型的論文,出自MASS的同一作者。這篇文章的亮點(diǎn)是:將兩種經(jīng)典的預(yù)
    的頭像 發(fā)表于 11-02 15:09 ?2724次閱讀

    基于BERT的中文科技NLP預(yù)訓(xùn)練模型

    深度學(xué)習(xí)模型應(yīng)用于自然語(yǔ)言處理任務(wù)時(shí)依賴大型、高質(zhì)量的人工標(biāo)注數(shù)據(jù)集。為降低深度學(xué)習(xí)模型對(duì)大型數(shù)據(jù)集的依賴,提出一種基于BERT的中文科技自然語(yǔ)言處理
    發(fā)表于 05-07 10:08 ?14次下載

    如何向大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型中融入知識(shí)?

    本文關(guān)注于向大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型(如RoBERTa、BERT等)中融入知識(shí)。
    的頭像 發(fā)表于 06-23 15:07 ?4264次閱讀
    如何向大規(guī)模<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>中融入知識(shí)?

    Multilingual多語(yǔ)言預(yù)訓(xùn)練語(yǔ)言模型的套路

    Facebook在Crosslingual language model pretraining(NIPS 2019)一文中提出XLM預(yù)訓(xùn)練語(yǔ)言模型,整體思路基于BERT,并提出了針
    的頭像 發(fā)表于 05-05 15:23 ?3003次閱讀

    一種基于亂序語(yǔ)言模型預(yù)訓(xùn)練模型-PERT

    由于亂序語(yǔ)言模型不使用[MASK]標(biāo)記,減輕了預(yù)訓(xùn)練任務(wù)與微調(diào)任務(wù)之間的gap,并由于預(yù)測(cè)空間大小為輸入序列長(zhǎng)度,使得計(jì)算效率高于掩碼語(yǔ)言
    的頭像 發(fā)表于 05-10 15:01 ?1564次閱讀

    利用視覺(jué)語(yǔ)言模型對(duì)檢測(cè)器進(jìn)行預(yù)訓(xùn)練

    預(yù)訓(xùn)練通常被用于自然語(yǔ)言處理以及計(jì)算機(jī)視覺(jué)領(lǐng)域,以增強(qiáng)主干網(wǎng)絡(luò)的特征提取能力,達(dá)到加速訓(xùn)練和提高模型泛化性能的目的。該方法亦可以用于場(chǎng)景
    的頭像 發(fā)表于 08-08 15:33 ?1419次閱讀

    CogBERT:腦認(rèn)知指導(dǎo)的預(yù)訓(xùn)練語(yǔ)言模型

    另一方面,從語(yǔ)言處理的角度來(lái)看,認(rèn)知神經(jīng)科學(xué)研究人類大腦中語(yǔ)言處理的生物和認(rèn)知過(guò)程。研究人員專門(mén)設(shè)計(jì)了預(yù)訓(xùn)練模型來(lái)捕捉大腦如何表示
    的頭像 發(fā)表于 11-03 15:07 ?1092次閱讀

    復(fù)旦&amp;微軟提出?OmniVL:首個(gè)統(tǒng)一圖像、視頻、文本的基礎(chǔ)預(yù)訓(xùn)練模型

    根據(jù)輸入數(shù)據(jù)和目標(biāo)下游任務(wù)的不同,現(xiàn)有的VLP方法可以大致分為兩類:圖像-文本預(yù)訓(xùn)練和視頻-文本預(yù)訓(xùn)練
    的頭像 發(fā)表于 12-14 15:26 ?933次閱讀

    預(yù)訓(xùn)練數(shù)據(jù)大小對(duì)于預(yù)訓(xùn)練模型的影響

    BERT類模型的工作模式簡(jiǎn)單,但取得的效果也是極佳的,其在各項(xiàng)任務(wù)的良好表現(xiàn)主要得益于其在大量無(wú)監(jiān)督文本上學(xué)習(xí)到的文本表征能力。那么如何從語(yǔ)言
    的頭像 發(fā)表于 03-03 11:20 ?1470次閱讀

    基于預(yù)訓(xùn)練模型語(yǔ)言增強(qiáng)的零樣本視覺(jué)學(xué)習(xí)

    Stable Diffusion 多模態(tài)預(yù)訓(xùn)練模型 考慮多標(biāo)簽圖像分類任務(wù)——每幅圖像大于一個(gè)類別 如果已有圖文對(duì)齊模型——能否用
    的頭像 發(fā)表于 06-15 16:36 ?578次閱讀
    基于<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>和<b class='flag-5'>語(yǔ)言</b>增強(qiáng)的零樣本視覺(jué)學(xué)習(xí)

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    預(yù)訓(xùn)練模型(Pre-trained Model)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)重要概念,尤其是在自然語(yǔ)言處理(NLP)和計(jì)算機(jī)視覺(jué)(CV)等領(lǐng)域中得到了廣泛應(yīng)用。
    的頭像 發(fā)表于 07-03 18:20 ?2952次閱讀

    語(yǔ)言模型預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語(yǔ)言模型預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過(guò)在海量無(wú)標(biāo)簽數(shù)據(jù)上進(jìn)行
    的頭像 發(fā)表于 07-11 10:11 ?454次閱讀
    主站蜘蛛池模板: GOGOGO高清免费播放| 一区二区三区无码高清视频| 99久久爱看免费观看| 久久精品国产视频澳门| 亚洲成a人不卡在线观看| 国产精品无码亚洲精品| 天天爽夜夜爽| 国产盗摄一区二区| 深夜释放自己污在线看| 处女座历史名人| 日韩精品AV一区二区三区| 白丝高中生被c爽哭| 秋霞伦理电影在线看| 操中国老太太| 日韩一区二区三区精品| 国产成人h在线视频| 神马影院午夜伦理限级| 国产不卡一卡2卡三卡4卡网站| 日本漂亮妈妈7观整有限中| 成人网络电视破解版| 揉抓捏打抽插射免费视频| 国产AV亚洲一区精午夜麻豆| 私密按摩师在线观看 百度网盘| 国产AV亚洲国产AV麻豆| 翁熄性放纵交换01| 国产亚洲精品品视频在线| 亚洲精品无码一区二区三区四虎| 狠狠色狠狠色综合日日2019| 亚洲一区高清| 口内射精颜射极品合集| 92国产精品午夜免费福利视频| 年轻漂亮的妺妺中文字幕版| qvod免费电影| 入禽太深免费观看| 国产精品网红女主播久久久| 亚洲国产在线播放在线| 久草在线福利资站免费视频| 长泽梓黑人初解禁bdd07| 免费 高清 中文在线观看| GAY2022空少被体育生暴菊| 色爱AV综合区|