色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

SimANS:簡單有效的困惑負樣本采樣方法

深度學習自然語言處理 ? 來源:RUC AI Box ? 2023-03-03 10:56 ? 次閱讀

本文介紹了本小組發表于EMNLP2022 Industry Track的論文SimANS,其設計了一簡單有效的通用困惑負樣本采樣方法,在5個數據集上提升了SOTA的稠密檢索模型的效果。

論文下載地址:https://arxiv.org/pdf/2210.11773.pdf

論文開源代碼:https://github.com/microsoft/SimXNS

前言

在各類檢索任務中,為訓練好一個高質量的檢索模型,往往需要從大量的候選樣本集合中采樣高質量的負例,配合正例一起進行訓練。已有的負采樣方法往往采用隨機采樣策略(Random Sampling)或直接基于該檢索模型自身選擇Top-K負例(Top-K Hard Negative Sampling),前者易得到過于簡單的樣例,無法為模型訓練提供足夠信息;后者很可能采樣得到假負例(False Negative),反而干擾模型訓練。本文針對稠密檢索場景,通過一系列基于負例梯度的實驗對隨機采樣和Top-K采樣兩種方式導致的問題進行分析,發現前一種負例產生的梯度均值較小、后一種負例產生的梯度方差較大,這兩者都不利于檢索模型訓練。此外,以上實驗還發現,在所有負例候選中,與Query的語義相似度接近于正例的負例可以同時具有較大的梯度均值和較小的梯度方差,是更加高質量的困惑負樣本。因此我們設計了一個簡單的困惑負樣本采樣方法SimANS,在4個篇章和文檔檢索數據集,以及Bing真實數據集上均成功提升了SOTA模型的效果,且該方法已經應用于Bing搜索系統。

一、研究背景與動機

1、稠密檢索

給出用戶的查詢Query,檢索任務關注于從大量的候選文檔集中檢索最相關的Top-K文檔。隨著近年來文本表示方法的發展,稠密檢索任務開始成為該任務的主流方法,其通常采用一雙塔模型架構,分別將查詢Query和候選Document轉換成低維的稠密表示,然后基于Query和Document稠密表示的點積來預測兩者的語義相關性,并依此進行候選文檔的排序。這一計算方式支持ANN等方法加速,故可以推廣到千萬級別文檔的查詢。

近年來,由于預訓練語言模型的出現,已有的稠密檢索方法往往采用預訓練語言模型作為Query和Document的Encoder,然后將其編碼后生成的[CLS]表示作為其稠密表示。

2、負采樣方法

為訓練該稠密檢索模型,已有方法通常基于一對比學習訓練目標,即拉近語義一致的Query和Document的表示(Positive),并推遠語義無關的Document(Negative)。由于在大量的候選文檔集中,大量的文檔都是語義無關的,故需要采用一合適的負采樣方法,從中選擇高質量的負例來進行訓練,依此減少需要的負樣本數量。

2.1.隨機負采樣

該類方法直接基于一均勻分布從所有的候選Document中隨機抽取Document作為負例,這一過程中由于無法保證采樣得到的負例的質量,故經常會采樣得到過于簡單的負例,其不僅無法給模型帶來有用信息,還可能導致模型過擬合,進而無法區分某些較難的負例樣本。

2.2.Top-K負采樣

該類方法往往基于一稠密檢索模型對所有候選Document與Query計算匹配分數,然后直接選擇其中Top-K的候選Document作為負例。該方法雖然可以保證采樣得到的負例是模型未能較好區分的較難負例,但是其很可能將潛在的正例也誤判為負例,即假負例(False Negative)。如果訓練模型去將該部分假負例與正例區分開來,反而會導致模型無法準確衡量Query-Document的語義相似度。

二、先導實驗

1、理論分析不同負例訓練時對梯度的影響

以稠密檢索常用的BCE loss為例,正例與采樣的負例在計算完語義相似度分數后,均會被softmax歸一化,之后計算得到的梯度如下所示:

上式中是經過softmax歸一化后的語義相似度分數。對于隨機采樣方法,由于其采樣得到的負例往往過于簡單,其會導致該分數接近于零,,進而導致其生成的梯度均值也接近于零,,這樣過于小的梯度均值會導致模型不易于收斂。對于Top-K采樣方法,由于其很容易采樣得到語義與正例一致的假負例,其會導致正負樣本的右項值相似,但是左項符號相反,這樣會導致計算得到的梯度方差很大,同樣導致模型訓練不穩定。

2、實驗驗證不同負例的梯度與語義相似度關系

我們基于SOTA的稠密檢索模型AR2,在MS-MARCO數據集上,首先計算候選Document與Query的語義相似度分數,然后將這些Document進行排序,并計算其梯度的均值與方差。如下圖所示,我們可以看到實驗結論與以上分析一致,排名靠前的Top-K負例產生的梯度均值和方差均很大;而排名靠后的負例產生的均值和方差均很小,兩者不能很好的平衡大均值和小方差這兩個很重要的負例性質。作為對比的是,與正例語義相似度接近的負例往往能夠同時取得較大的梯度均值和較小的梯度方差,有利于模型訓練。我們將其命名為困惑樣本(既不過于難又不過于容易區分),并關注于對其進行采樣。

7bed60ce-b91e-11ed-bfe3-dac502259ad0.png

三、SimANS:簡單的困惑樣本采樣方法

基于上述實驗,我們考慮對與正例語義相似度接近的困惑負例樣本進行采樣。故設計的采樣方法應該具有以下特點:(1)與Query無關的Document應被賦予較低的相關分數,因其可提供的信息量不足;(2)與Query很可能相關的Document應被賦予較低的相關分數,因其可能是假負例;(3)與正例語義相似度接近的Document應該被賦予較高的相關分數,因其既需要被學習,同時是假負例的概率相對較低。

7c0827e2-b91e-11ed-bfe3-dac502259ad0.png

困惑樣本采樣分布

通過以上分析可得,在該采樣分布中,隨著Query與候選Document相關分數和與正例的相關分數的差值的縮小,該候選Document被采樣作為負例的概率應該逐漸增大,故可將該差值作為輸入,配合任意一單調遞減函數即可實現(如)。故可設計采樣分布如下所示:

其中為控制該分布密度的超參數,為控制該分布極值點的超參數,是一隨機采樣的正例樣本,是Top-K的負例。通過調節K的大小,我們可以控制該采樣分布的計算開銷。以下為該采樣方法具體實現的偽代碼:

7c17d3fe-b91e-11ed-bfe3-dac502259ad0.png

四、實驗結果

1、主實驗

我們在4個公開的文檔檢索數據集上進行實驗,分別是Natural Question(NQ)、Trivia QA(TQ)、MS-MARCO Passage Ranking(MS-Pas)和MS-MARCO Document Ranking(MS-Doc)數據集;同時還在Bing真實工業數據集上進行實驗,實驗結果如下表所示。通過對比可以清晰地看出我們的方法可以提升SOTA的AR2模型的效果,進一步領先其他模型。

7c4138fc-b91e-11ed-bfe3-dac502259ad0.png

7c5b1506-b91e-11ed-bfe3-dac502259ad0.png

2、該負采樣方法的通用性

我們還在RocketQA和ANCE這兩個經典的稠密檢索模型上實現了我們提出的SimANS方法,來提升這些模型的性能。可以看出,在采用該方法之后,以上兩個模型的的表現都超過了原始模型,證明了我們提出的方法的通用性。

7c70fa74-b91e-11ed-bfe3-dac502259ad0.png

3、負采樣分布的可視化

在實驗的最后,我們將SimANS得到的采樣分布制作成圖,可以看到我們的采樣分布函數確實能夠懲罰過于難和過于簡單的負例,并保證與正例的語義相似度接近的負例的采樣概率較大。實現了我們的設計初衷。

7c87cb32-b91e-11ed-bfe3-dac502259ad0.png

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 參數
    +關注

    關注

    11

    文章

    1839

    瀏覽量

    32287
  • 語言模型
    +關注

    關注

    0

    文章

    528

    瀏覽量

    10292
  • 數據集
    +關注

    關注

    4

    文章

    1208

    瀏覽量

    24731

原文標題:EMNLP2022 | SimANS:簡單有效的困惑負樣本采樣方法

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    機器學習的5種采樣方法介紹

    一種廣泛采用的處理高度不平衡數據集的技術稱為重采樣。它包括從多數類(欠采樣)中刪除樣本或向少數類(過采樣)中添加更多示例。
    發表于 05-17 09:53 ?5683次閱讀

    PCB接地設計寶典4:采樣時鐘考量和混合信號接地的困惑根源

    的噪聲源來自rms采樣時鐘抖動tj。通過簡單示例可知,如果tj = 50 ps (rms),f = 100 kHz,則SNR = 90 dB,相當于約15位的動態范圍。應注意,以上示例中的tj 實際上
    發表于 11-20 10:58

    怎么使用UART向PC發送數字樣本

    你好,我正在研究我們的語音信號,并使用UART向PC發送這些數字樣本,并使用超終端在PC中進行采集。問題是我丟失了很多樣品。對于16000個BPS采樣率,我只收集每秒1600個樣本。我沒有使用DMA
    發表于 04-28 10:28

    一種先分割后分類的兩階段同步端到端缺陷檢測方法

    作者:SFXiang首發:AI算法修煉營本文是一種端到端的先分割后分類的表面缺陷檢測方法。主要的創新點在于如何將兩類任務更好地進行同步學習,本文首先平衡分割損失和分類損失,然后對樣本采樣
    發表于 07-24 11:01

    有什么簡單可行的方法可以實現壓輸出呢

    BUCK電路的接法是怎樣的?有什么簡單可行的方法可以實現壓輸出呢?
    發表于 11-03 07:16

    測量功率二極管的反向恢復時間簡單有效方法

    測量功率二極管的反向恢復時間簡單有效方法 在互聯網上很少看到測量二極管的反向恢復時間(trr and Irr)簡單有效
    發表于 11-11 09:48 ?101次下載

    什么是采樣頻率?什么叫采樣頻率

    什么是采樣頻率?什么叫采樣頻率 采樣頻率:即取樣頻率,指每秒鐘取得聲音樣本的次數.它的采樣頻率越高,聲音的
    發表于 05-04 19:42 ?2.1w次閱讀
    什么是<b class='flag-5'>采樣</b>頻率?什么叫<b class='flag-5'>采樣</b>頻率

    入侵檢測樣本數據優化方法

    ,分析了算法的時間復雜度。實驗結果表明,該方法有效減少數據信息損失,具有迭代次數少、收斂速度快等優點,可有效提高入侵檢測樣本數據的優化效率。
    發表于 02-26 10:29 ?0次下載

    經典的采樣方法有哪些?

    可以看到蒙特卡洛法其實就是按一定的概率分布中獲取大量樣本,用于計算函數在樣本的概率分布上的期望。其中最關鍵的一個步驟就是如何按照指定的概率分布 p 進行樣本采樣,拋硬幣這個 case
    的頭像 發表于 07-09 09:43 ?1.4w次閱讀
    經典的<b class='flag-5'>采樣</b><b class='flag-5'>方法</b>有哪些?

    基于構造性覆蓋算法的過采樣技術CMOTE

    如何提高對少數類樣本的識別能力是不平衡數據分類中的一個研究熱點。合成少數類過采樣技術( SMOTE)是解決此類問題的代表性方法之一。近年來,不少研究者對 SMOTE做出了一些改進,較好地提高了該
    發表于 04-12 16:09 ?5次下載
    基于構造性覆蓋算法的過<b class='flag-5'>采樣</b>技術CMOTE

    一種從患者血液樣本有效分離異質性CTCs的簡單、廣譜的方法

    針對上述挑戰,中國科學院蘇州納米所裴仁軍研究團隊利用單寧酸(TA)功能化磁性納米顆粒(MNPs),建立了一種從患者血液樣本有效分離異質性CTCs的簡單、廣譜的方法
    的頭像 發表于 06-11 09:19 ?2148次閱讀
    一種從患者血液<b class='flag-5'>樣本</b>中<b class='flag-5'>有效</b>分離異質性CTCs的<b class='flag-5'>簡單</b>、廣譜的<b class='flag-5'>方法</b>

    基于有效樣本的類別不平衡損失

    導讀 使用每個類的有效樣本數量來重新為每個類的Loss分配權重,效果優于RetinaNet中的Focal Loss。 本文綜述了康奈爾大學、康奈爾科技、谷歌Brain和Alphabet公司的基于有效
    的頭像 發表于 08-16 11:14 ?1922次閱讀
    基于<b class='flag-5'>有效</b><b class='flag-5'>樣本</b>的類別不平衡損失

    融合零樣本學習和小樣本學習的弱監督學習方法綜述

    融合零樣本學習和小樣本學習的弱監督學習方法綜述 來源:《系統工程與電子技術》,作者潘崇煜等 摘 要:?深度學習模型嚴重依賴于大量人工標注的數據,使得其在數據缺乏的特殊領域內應用嚴重受限。面對數據缺乏
    發表于 02-09 11:22 ?2328次閱讀
    融合零<b class='flag-5'>樣本</b>學習和小<b class='flag-5'>樣本</b>學習的弱監督學習<b class='flag-5'>方法</b>綜述

    雙塔模型擴量樣本方法比較

    雙塔模型在訓練時是對一個batch內樣本訓練。一個batch內每個樣本 (user和item對)為正樣本,該user與batch內其它item為
    的頭像 發表于 07-08 10:57 ?1192次閱讀

    基于有效樣本數的類平衡損失

    本文綜述了康奈爾大學、康奈爾科技、谷歌Brain和Alphabet公司的基于有效樣本數的類平衡損失(CB損失)。
    的頭像 發表于 08-25 09:41 ?1235次閱讀
    主站蜘蛛池模板: a级毛片高清免费视频| 久久精品AV无码亚洲色欲| 麻豆精品传媒2021网站入口| 91精品免费久久久久久久久| 暖暖视频 免费 高清 日本8| 丰满的美女射精动态图| 亚洲精品久久一区二区三区四区 | 亚洲成人一区| 久久国产免费观看精品1| 99久在线国内在线播放免费观看| 日产精品久久久久久久蜜殿| 国内国外精品影片无人区| 中文字幕无码他人妻味| 色丁香婷婷综合缴情综| 精品国产90后在线观看| np高h肉文| 亚洲精品不卡在线| 欧美末成年videos在线| 韩国精品韩国专区久久| JAVAPARSER丰满白老师| 亚洲精品视频免费观看| 欧美牲交视频免费观看K8经典| 国产欧美第一页| av在线不卡中文网| 亚洲精品动漫免费二区| 彭丹吃奶门| 久久草这在线观看免费| 国产99r视频精品免费观看| 洲精品无码高潮喷水A片| 色婷婷国产精品视频一区二区三区 | 宝贝乖女好紧好深好爽老师| 小莹的性荡生活45章| 做暖免费观看日本| 伸到同桌奶罩里捏她胸h| 毛片999| 狠日狠干日曰射| 国产成人理在线观看视频| 97人人碰免费视频公开| 亚洲精品青青草原avav久久qv| 日本xxxx裸体xxxx| 免费A级毛片无码鲁大师|