色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一種緩解負采樣偏差的對比學習句表示框架DCLR

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:張北辰 ? 2022-06-07 09:54 ? 次閱讀

本文針對句表示對比學習中的負采樣偏差進行研究,提出了一種針對錯負例和各向異性問題的去偏句表示對比學習框架。該框架包括一種懲罰假負例的實例加權方法以及一種基于噪聲的負例生成方法,有效緩解了句表示任務中的負采樣偏差問題,提升了表示空間的均勻性。

論文題目:Debiased Contrastive Learning of Unsupervised Sentence Representations

論文下載地址:https://arxiv.org/abs/2205.00656

論文開源代碼:https://github.com/rucaibox/dclr

引言

作為自然語言處理(NLP)領域的一項基本任務,無監督句表示學習(unsupervised sentence representation learning)旨在得到高質量的句表示,以用于各種下游任務,特別是低資源領域或計算成本較高的任務,如 zero-shot 文本語義匹配、大規模語義相似性計算等等。

考慮到預訓練語言模型原始句表示的各向異性問題,對比學習被引入到句表示任務中。然而,以往工作的大多采用批次內負采樣或訓練數據隨機負采樣,這可能會造成采樣偏差(sampling bias),導致不恰當的負例(假負例或各向異性的負例)被用來進行對比學習,最終損害表示空間的對齊度(alignment)和均勻性(uniformity)。

為了解決以上問題,我們提出了一種新的句表示學習框架 DCLR(Debiased Contrastive Learning of Unsupervised Sentence Representations)。在 DCLR 中,我們設計了一種懲罰假負例的實例加權方法以及一種基于噪聲的負例生成方法,有效緩解了句表示任務中的負采樣偏差問題,提升了表示空間的對齊度和均勻性。

背景與動機

近年來,預訓練語言模型在各種 NLP 任務上取得了令人矚目的表現。然而,一些研究發現,由預訓練模型得出的原始句表示相似度都很高,在向量空間中并不是均勻分布的,而是構成了一個狹窄的錐體,這在很大程度上限制了句表示的表達能力。

為了得到分布均勻的句表示,對比學習被應用于句表示學習中。對比學習的目標是從數據中學習到一個優質的語義表示空間。優質的語義表示空間需要正例表示分布足夠接近,同時語義表示盡量均勻地分布在超球面上,具體可以用以下兩種指標來衡量:

1、對齊度(alignment)計算原始表示與正例表示的平均距離。

2、均勻性(uniformity)計算表示整體在超球面上分布的均勻程度。

因此,對比學習的思想為拉近語義相似的正例表示以提高對齊度,同時推開不相關的負例以提高整個表示空間的均勻性。

623771d8-e589-11ec-ba43-dac502259ad0.png

以往的基于對比學習的句表示學習工作大多使用 batch 內數據作為負例或從訓練數據中隨機采樣負例。然而,這類方式可能會造成抽樣偏差(sampling bias),導致不恰當的負例(例如假負例或各向異性的負例)被用來學習句表示,這將損害表征空間的對齊性和統一性。上圖是 SimCSE 編碼的輸入句表示與批次內其它樣本表示的余弦相似度分布。可以看到,有接近一半的相似度高于 0.7,直接在向量空間中推遠這些負例很有可能損害模型的語義表示能力。

因此,本文聚焦于如何降低負采樣偏差,從而使得對比學習得到向量分布對齊、均勻的句表示。

方法簡介

DCLR 聚焦于減少句表示對比學習中負采樣偏差的影響。在這個框架中,我們設計了一種基于噪聲的負例生成策略和一種懲罰假負例的實例加權方法。

626bbf9c-e589-11ec-ba43-dac502259ad0.png

基于噪聲的負例生成

對于每個輸入句 ,我們首先基于高斯分布初始化個噪聲向量作為負例表示:

其中為標準差。因為這些噪聲向量是從上述高斯分布中隨機初始化的,所以它們均勻地分布在語義空間中。因此,模型可以通過學習這些負例來提高語義空間的均勻性。

為了提高生成負例的質量,我們考慮迭代更新負例,以捕捉語義空間中的非均勻性點。受虛擬對抗訓練(virtual adversarial training, VAT)的啟發,我們設計了一個非均勻性(non-uniformity)損失最大化的目標函數以產生梯度來改善這些負例。具體來說,目標函數表示為基于噪聲的負例與正例表示的對比學習損失:

其中是溫度超參數,是余弦相似度。對于每個負例 ,我們通過 t 步梯度上升法對其進行優化:

其中為學習率,是 L2 范數。表示通過最大化非均勻性目標函數產生的的梯度。這樣一來,基于噪音的負例將朝著句表示空間的非均勻點優化。學習與這些負例的對比可以進一步提高表示空間的均勻性。

帶有實例加權的對比學習

除了上述基于噪音的負例,我們也遵循現有工作,使用其它批次內樣本表示作為負例。然而,如前文所述,批次內負例可能包含與正例有類似語義的例子,即假負例。為了緩解這個問題,我們提出了一種實例加權的方法來懲罰假負例。由于我們無法獲得真實的負例標簽,我們利用補充模型 SimCSE 來計算每個負例的權重。給定 或 {hat{h}}中的一個負例表示 和原始句表示 ,我們使用補全模型來計算權重:

其中 是實例加權閾值,是余弦相似度函數。通過上式,與原句表示有較高語義相似性的負例將被視為假負例,并將被賦予 0 權重作為懲罰。基于以上權重,我們用去偏的交叉熵對比學習損失函數來優化句表示:

我們的方法使用了 SimCSE 的 dropout 正例增廣策略,但也適用于其它多種正例增廣策略。

實驗

數據集

遵循以往的工作,我們在 7 個標準語義文本相似度任務上進行實驗。這些數據集由成對句子樣本構成,其相似性分數被標記為 0 到 5。標簽分數和句表示預測分數之間的相關性由 Spearman 相關度來衡量。

主實驗

我們在 7 個數據集上進行了語義相似度測試,并與現有 baseline 進行比較。可以看到,DCLR 的性能在絕大部分實驗中優于基線模型。

62aa3614-e589-11ec-ba43-dac502259ad0.png

分析與擴展

6302ef02-e589-11ec-ba43-dac502259ad0.png

DCLR 框架包含兩個去偏負采樣策略,為了驗證其有效性,我們對兩部分分別進行了消融實驗。除此之外,我們還考慮其它三種策略:

1、Random Noise 直接從高斯分布中生成負例,不進行梯度優化。

2、Knowledge Distillation 使用 SimCSE 作為教師模型在訓練過程中向學生模型蒸餾知識。

3、Self Instance Weighting 將模型自己作為補全模型為實例計算權重。

結果顯示 DCLR 的性能優于各類變種,表明所提策略的合理性。

6385619e-e589-11ec-ba43-dac502259ad0.png

均勻性是句表示的一個理想特征。我們比較了 DCLR 和 SimCSE 基于 BERT-base 在訓練期間的均勻性損失曲線。遵循 SimCSE,均勻性損失函數為:

其中 是所有句表示的分布。如圖所示,隨著訓練進行,DCLR 的均勻性損失下降,而 SimCSE 沒有明顯的下降趨勢。這可能表明 DCLR 中基于噪聲的負例采樣方法能夠有效改善語義空間的均勻性。

63c1cd00-e589-11ec-ba43-dac502259ad0.png

為了驗證 DCLR 在少樣本場景下的健壯性,我們在 0.3% 到 100% 的數據量設定下訓練模型。結果表明,即使在相對極端的數據設定(0.3%)下,我們的模型性能也僅僅在兩個任務中分別下降了了 9% 和 4%,這顯示了模型在少樣本場景中的有效性。

六. 總結

本文提出了一種緩解負采樣偏差的對比學習句表示框架 DCLR。DCLR 采用一種可梯度更新的噪聲負例生成方法來提高語義空間的均勻性,同時使用實例加權的方法緩解假負例問題,提升語義空間對齊度。實驗表明,該方法在大部分任務設定下優于其它基線模型。

在未來,我們將探索其他減少句表示任務中對比學習偏差的方法(例如去偏預訓練)。此外,我們還將考慮將我們的方法應用于多語言或多模態的表示學習。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 框架
    +關注

    關注

    0

    文章

    403

    瀏覽量

    17504
  • 語言模型
    +關注

    關注

    0

    文章

    527

    瀏覽量

    10285
  • nlp
    nlp
    +關注

    關注

    1

    文章

    489

    瀏覽量

    22049

原文標題:ACL2022 | 無監督句表示的去偏對比學習

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    介紹一種 WiMax 雙下變頻 IF 采樣接收機設計方案

    介紹了一種 WiMax 雙下變頻 IF 采樣接收機設計方案,詳細闡述了其背景知識、架構、實現方法、性能評估等內容,為相關工程人員提供了全面的設計參考。 *附件:一種WiMax雙下變頻IF采樣
    的頭像 發表于 12-18 16:29 ?852次閱讀
    介紹<b class='flag-5'>一種</b> WiMax 雙下變頻 IF <b class='flag-5'>采樣</b>接收機設計方案

    將ADS1294用于數據采集,偶爾出現實際采樣率與設定采樣率之間存在3%的固定偏差,為什么?

    )約為970Hz。設定250Hz,實際采樣率242.5Hz。 而且還發現,讀ID的時候,理論上應該讀到0x90,但有時候返回的是0x80,當返回0x80的時候后面測得的采樣率就定會出現3%的
    發表于 12-18 11:26

    一種面向飛行試驗的數據融合框架

    天地氣動數據致性,針對某外形飛行試驗數據開展了典型對象的天地氣動數據融合方法研究。結合數據挖掘的隨機森林方法,本文提出了一種面向飛行試驗的數據融合框架,通過引入地面風洞試驗氣動數據,實現了對復雜輸入參數的特征
    的頭像 發表于 11-27 11:34 ?247次閱讀
    <b class='flag-5'>一種</b>面向飛行試驗的數據融合<b class='flag-5'>框架</b>

    用ADS8317采樣,如果基準偏差,對結果的采樣精度有影響嗎?

    請問用ADS8317采樣基準1.25V如果基準偏差對結果的采樣精度有影響嘛
    發表于 11-27 08:06

    Dubbo源碼淺析()—RPC框架與Dubbo

    時,就像調用本地過程樣方便。 1.2 RPC與Http的關系 用一句話來總結就是: RPC是一種概念,http是一種協議,可以認
    的頭像 發表于 08-16 15:18 ?756次閱讀
    Dubbo源碼淺析(<b class='flag-5'>一</b>)—RPC<b class='flag-5'>框架</b>與Dubbo

    TLV9062IDR的電流采樣電路,請問運放本身偏差大小是否正常?

    大家好,下圖是TLV9062IDR的電流采樣電路。 實際測試時發現運放本身的偏差有點大,同塊板子用1號運放時,軟件在電流為30A時讀取的值偏小0.35A。換上2號運放時,讀值反而會偏大0.2A
    發表于 08-15 08:17

    INA826高端采樣電流點有偏差是什么原因導致的?

    我用INA826在高端給輸出電壓可調的電源采樣輸出電流。發現在固定同電流值時(如0,100mA等),輸出不同電壓(如500mV,1000mV,4000mV等),INA826的輸出有偏差
    發表于 08-05 07:52

    NVIDIA推出全新深度學習框架fVDB

    在 SIGGRAPH 上推出的全新深度學習框架可用于打造自動駕駛汽車、氣候科學和智慧城市的 AI 就緒型虛擬表示
    的頭像 發表于 08-01 14:31 ?625次閱讀

    TensorFlow與PyTorch深度學習框架的比較與選擇

    深度學習作為人工智能領域的個重要分支,在過去十年中取得了顯著的進展。在構建和訓練深度學習模型的過程中,深度學習框架扮演著至關重要的角色。T
    的頭像 發表于 07-02 14:04 ?979次閱讀

    用stm32f4的以太網傳輸ADC采用數據,ADC采樣數據會發生偏差的原因?

    我用stm32f4的以太網傳輸ADC采用數據,在通訊的時候會造成采樣數據偏差,以太網采用的是lwip協議棧,ADC采樣六通道正弦波,每500ms通訊次,在通訊期間的ADC
    發表于 05-06 09:01

    高精度氧離子監測系統(高精度的氧離子監測系統)

      JD-FZ5氧離子,是指帶有負電荷的氧離子,是一種對人體健康有益的物質。隨著人們對健康生活的追求,氧離子監測系統的需求也越來越大。今天,我們就來介紹款高精度
    的頭像 發表于 03-26 15:56 ?378次閱讀

    一種高效的KV緩存壓縮框架--GEAR

    GEAR框架通過結合三互補的技術來解決這挑戰:首先對大多數相似幅度的條目應用超低精度量化;然后使用低秩矩陣來近似量化誤差。
    發表于 03-19 10:12 ?343次閱讀
    <b class='flag-5'>一種</b>高效的KV緩存壓縮<b class='flag-5'>框架</b>--GEAR

    介紹一種OpenAtom OpenHarmony輕量系統適配方案

    本文在不改變原有系統基礎框架的基礎上, 介紹了一種OpenAtom OpenHarmony(以下簡稱“OpenHarmony”)輕量系統適配方案。
    的頭像 發表于 03-05 09:24 ?1203次閱讀
    介紹<b class='flag-5'>一種</b>OpenAtom OpenHarmony輕量系統適配方案

    GD32斷上電采樣相同電壓有偏差如何處理?

    大家是否碰到過使用GD32 MCU斷上電采樣相同的電壓存在偏差的情況?如果在上電正常運行的情況下,采樣相同的直流電壓,ADC采樣數值都比較穩定,而斷上電重新運行的時候
    的頭像 發表于 02-29 09:44 ?822次閱讀
    GD32斷上電<b class='flag-5'>采樣</b>相同電壓有<b class='flag-5'>偏差</b>如何處理?

    等效時間采樣示波器與實時示波器的對比,有什么不同?

    等效時間采樣示波器與實時示波器的對比,有什么不同? 等效時間采樣示波器和實時示波器是電子測試設備中常用的兩示波器。它們在運行原理、應用場景、優點和缺點等方面存在
    的頭像 發表于 01-19 11:29 ?1491次閱讀
    主站蜘蛛池模板: a级毛片黄免费a级毛片| 婷婷久久无码欧美人妻| 啊…嗯啊好深男男小黄文| 羞羞影院男女爽爽影院尤物| 美女激清床上戏大全| 国产午夜亚洲精品理论片八戒| 中国人泡妞www免费| 午夜影院视费x看| 精品免费久久久久久成人影院| 国产精品A久久777777| JAVAPARSER丰满白老师| 97精品视频在线观看| 野花日本完整版在线观看免费高清| 色百度网址大全| 青青久在线| 男人扒开添女人下部口述| 久久99热只有频精品| 湖南电台在线收听| 国产精品人妻99一区二| 国产WW久久久久久久久久| 纯h超级大尺度小黄文| a视频免费在线观看| 敌伦小芳的第一次| 国内久经典AAAAA片| 国产午夜一级鲁丝片| 久久精品国产只有精品| 精品熟女少妇AV免费观看| 蜜桃麻豆WWW久久囤产精品免费| 久久亚洲精品中文字幕| 久久99re2在线视频精品| 内射一区二区精品视频在线观看 | 一级无毛片| 亚洲午夜性春猛交XXXX| 亚洲看片网站| 亚洲精品在线免费| 99视频福利| 国产色情短视频在线网站| 好爽别插了无码视频| 嫩草www视频在线观看高清| 无码乱人伦一区二区亚洲| 小xav导航|