色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

介紹NMT模型魯棒性對抗訓練的三部曲

深度學習自然語言處理 ? 來源:天宏NLP ? 2023-02-20 10:35 ? 次閱讀

本文主要介紹NMT模型魯棒性的相關改進工作,介紹一下對抗訓練的三部曲,一作皆是ChengYong,分別中了2018,2019和2020的ACL。

第一項工作為 Towards Robust Neural Machine Translation (ACL 2018)

本文的問題引入為一個小實驗,即將機器翻譯的源句進行微小擾動(同義詞替換),69.74%的翻譯句子也隨之改變,并且原始輸入和擾動輸入對應的翻譯句間BLEU僅為79.01,因此,作者希望通過對抗訓練來加強Encoder和Decoder的抗干擾能力。

5c4f9db4-afe5-11ed-bfe3-dac502259ad0.png

具體做法如上圖,首先是噪聲的引入,作者提出兩種方式:

1)詞匯級別,計算余弦相似度進行同義詞替換;

2)特征級別,在詞向量上加入高斯噪聲。

然后是噪聲數據的使用,對應上圖中三個損失函數:

1)Ltrue(x, y)是正常訓練NMT的損失函數;

2)Lnoisy(x', y)是加強Decoder的去噪能力,即對應有噪聲的Hx',Decoder也能得到正確的輸出;

3)Linv(x, x'),旨在加強Encoder的去噪能力,即針對噪聲數據x',Encoder得到的Hx'也應與原表征Hx相近,訓練過程采用了min-max two-player策略,引入Discriminator進行交互對抗訓練,Encoder得到Hx和Hx'應該盡可能相似騙過Discriminator,而Discriminator則要分開有、無噪聲的數據,兩者迭代訓練以加強Encoder對噪聲數據x'的建模能力。

文章優勢在于不改變模型結構,可拓展到任意噪聲干擾或是針對特定任務進行設計,如作者對輸入數據進行刪除、替換等token級噪聲時,發現使用詞匯級別噪聲的引入訓練的模型更魯棒。

第二項工作為 Robust Neural Machine Translation with Doubly Adversarial Inputs (ACL 2019)

這項工作不同于上文的模型無關,而是將NMT看成“白盒”,從而基于梯度生成對抗輸入,文章的核心思想就是下面這條式子,其中x',x分別代表有無噪聲的數據,R(·)為相似性度量,后面的是負對數Loss,通俗來講就是找到噪聲不是太大的x'(保證x'與x語義相近),使得模型的Loss最大,這樣才能最有效地加強模型魯棒性。

5c7ebaea-afe5-11ed-bfe3-dac502259ad0.png

具體做法分為兩部分,分別是Encoder攻擊和Decoder防御。在Encoder端,x為Encoder的輸入,模型會算出某個詞表征xi的梯度gxi,然后在詞表中找出使Loss最大的x替換原有的詞xi,做法是在詞典中計算表征“e(x)-e(xi)”與gxi的相似度,使相似度最大的xi'為所得。同時,噪聲xi'不應與原始xi差太遠,作者使用了Masked LM提取候選詞,在原句中,會將需要替換的詞先mask,然后選擇預測的topk作為候選項,至于哪些詞會被mask或替換則為隨機均勻采樣。

5c9792a4-afe5-11ed-bfe3-dac502259ad0.png

在Decoder端,z為Decoder的輸入,與Encoder中的噪聲xi'類似,以同樣的方法得到zi',但針對zi的采樣與xi有關,即xi隨機采樣,zi需要大概率在xi替換的同樣位置進行替換。因此,回望整個訓練方式,Encoder的作用是找到使梯度最大的xi'擾亂模型,Decoder的作用是即使輸入為zi',仍能輸入正確的結果,具有一定魯棒性。

我覺得本文有兩點值得思考,首先是基于梯度最大來找噪聲詞,能夠更有力的對模型魯棒能力發起攻擊,其實這個可以更進一步,Encoder輸入中需要被替換的詞并非隨機采樣,而是找使Loss最大的詞,相關文章改進CE Loss為Focal Loss也就是這個思想,我們可以直覺判斷,模型建模較好的是高頻詞,建模不好的是低頻詞,低頻詞的Loss比較大,我們在大Loss的基礎上再找大梯度,這樣攻擊效果更強力,同時可以提高模型對低頻詞的魯棒性。第二點是作者對xi的替換處理,還要回詞典中尋找進行詞替換,這樣未免更加麻煩了,為什么不在一定范圍內,直接找梯度最大的向量進行替換了呢?如果怕語義信息不相似,縮小相似度量范圍就好了,這樣更方便。

第三項工作為 AdvAug: Robust Adversarial Augmentation for Neural Machine Translation (ACL 2020)

這項工作是在第二項的基礎上進行了數據增強的改進,采用的方法為線性插值,首先針對原始數據(x, y),作者用第二項工作的方法造出一堆噪聲數據,然后對噪聲數據進行線性插值生成更多的偽數據,令人比較奇怪的是,作者對不同的parallel data pair同樣進行了線性插值,可能兩句話雖不同含義,但是插值后在向量空間,源句和目標句也能表達類似語義?

5cb5247c-afe5-11ed-bfe3-dac502259ad0.png


5cd27d56-afe5-11ed-bfe3-dac502259ad0.png







審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • ACL
    ACL
    +關注

    關注

    0

    文章

    61

    瀏覽量

    12000

原文標題:NMT對抗訓練的三部曲

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    油煙機選購三部曲

    油煙機選購三部曲廚房油煙含有20多萬種有害物質,不僅會致癌,對腸道、大腦神經等也有很大的危害。廚房油煙已成為人體健康的隱形殺手。而肩負清潔廚房油煙的重任,一款好的吸油煙機將為你的生活增色不少
    發表于 12-22 14:45

    三部曲(全書)

    天嵌的三部曲
    發表于 07-01 16:41

    冒泡排序法三部曲の一、冒泡排序原理版

    的類型就多進行3x4次排序,為了解決這個問題,對冒泡排序法進行進一步優化,將在冒泡排序法三部曲の二、冒泡排序優化中解決這個問題。
    發表于 09-12 10:30

    冒泡排序法三部曲の冒泡排序原理版(一)

    ;, array[n]);printf("\t");//空格一次}return 0;}運行結果上述代碼沒有問題,但是如果數組是類似{1,2,3,5,4}這樣的類型就多進行3x4次排序,為了解決這個問題,對冒泡排序法進行進一步優化,將在冒泡排序法三部曲の二、冒泡排序優化中解決這個問題。
    發表于 09-12 10:42

    冒泡排序法三部曲の二冒泡排序法的優化

    本帖最后由 盧小二 于 2019-9-14 11:23 編輯 環境:VS2017C language在冒泡排序法三部曲の一冒泡排序法的原理之后,其實存在一些可優化的問題,首先就是假如是
    發表于 09-13 12:17

    榮耀Note9什么時候上市?榮耀三部曲華為榮耀Note9即將發布,配置、渲染圖、價格消息匯總

    喜歡全面屏新機?喜歡大屏手機?那這部6.6英寸的超大屏全面屏手機真的是不容錯過。這就是華為即將發布的最新旗艦,榮耀三部曲之一的---榮耀Note 9。
    發表于 08-02 10:16 ?4007次閱讀

    是什么意思_Robust為什么翻譯成

    的定義 是什么意思?頭一次看到這個詞的你可能會想歪(邪惡的笑臉)。但其實
    發表于 11-29 09:08 ?12.7w次閱讀
    <b class='flag-5'>魯</b><b class='flag-5'>棒</b><b class='flag-5'>性</b>是什么意思_Robust為什么翻譯成<b class='flag-5'>魯</b><b class='flag-5'>棒</b><b class='flag-5'>性</b>

    存儲三部曲的第一——NAS

    目前數據存儲的形態,主要就是SAN、NAS和OBJ這種。作為存儲三部曲的第一,先來說說我最喜歡的NAS。 NAS(Network Attached Storage),網絡附加存儲。簡單的說
    的頭像 發表于 12-03 14:11 ?2932次閱讀

    存儲三部曲最后一SAN的現狀如何?

    今天分享存儲三部曲的最后一,高冷的SAN。 SAN(Storage Area Network),存儲局域網絡,一種主要基于FC(FibreChannel)的光纖通道存儲技術,用于SAN中的存儲就是
    的頭像 發表于 12-03 14:15 ?2652次閱讀

    如何提高事件檢測(ED)模型和泛化能力?

    論文中指出,以往關于ED的工作都是考慮如何提升模型的性能,而較少考慮模型和泛化能力,作者將模型
    的頭像 發表于 12-31 10:21 ?3350次閱讀

    NLP中的對抗訓練到底是什么

    簡介 對抗訓練是一種引入噪聲的訓練方式,可以對參數進行正則化,提升模型
    的頭像 發表于 01-18 17:17 ?3600次閱讀

    簡單總結幾種NLP常用的對抗訓練方法

    對抗訓練本質是為了提高模型,一般情況下在傳統訓練
    的頭像 發表于 11-09 10:17 ?3081次閱讀
    簡單總結幾種NLP常用的<b class='flag-5'>對抗</b><b class='flag-5'>訓練</b>方法

    的含義以及如何提高模型?

    的含義以及如何提高模型? 什么是
    的頭像 發表于 10-29 11:21 ?3564次閱讀

    在機器學習中的重要

    在機器學習領域,模型是指模型在面對輸入數據的擾動、異常值、噪聲或對抗性攻擊時,仍能保持性
    的頭像 發表于 11-11 10:19 ?519次閱讀

    深度學習模型優化

    。異常值和噪聲可能會誤導模型訓練,導致模型在面對新數據時表現不佳。 數據標準化/歸一化 :將數據轉換到同一尺度上,有助于模型更好地學習數據的內在規律,從而提高
    的頭像 發表于 11-11 10:25 ?349次閱讀
    主站蜘蛛池模板: 午夜免费福利| 免费黄色网址在线观看| 日韩精品专区在线影院重磅| 久久久黄色片| 黄色a三级免费看| 茎身铃口调教| 飘雪在线观看免费完整版| 青青草色青伊人| 亚洲欧美日韩在线码不卡| 亚洲人成网站7777视频| 99在线观看| 东京热 百度影音| 国产精品亚洲专区在线播放| 国产免费人视频在线观看免费| 蜜臀AV中文字幕熟女人妻| 男女高潮又爽又黄又无遮挡| 亚洲 欧美 国产 综合不卡| 边吃胸边膜下床震免费版视频| 国产高清视频a在线大全| 免费看成人毛片| 在线观看日韩一区| 国拍在线精品视频免费观看| 日韩 亚洲 欧美 中文 高清| 91久久偷偷做嫩草影院免| 精品久久久久久久久免费影院| 蜜桃最新网址| 伊人影院亚洲| 久久精品一区| 尤物99久久久合集一区区| 国内精品视频在线播放一区| 熟女强奷系列中文字幕| 亚洲精品91| 99国产精品欲AV蜜桃臀麻豆| 国产精品亚洲精品久久品| 肉肉描写很细致的黄文| 叮当成人社区| 特级黑人三人共一女| 国产精品AV视频一二三区| 天天操人人射| 国产亚洲一区在线| 秋霞电影网视频一区二区三区|