色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于訓練階段使用知識庫+KNN檢索相關(guān)信息輔助學習方法

深度學習自然語言處理 ? 來源:圓圓的算法筆記 ? 作者:圓圓的算法筆記 ? 2022-10-09 17:33 ? 次閱讀

在prompt learning中一個核心問題是模型存在死記硬背現(xiàn)象。Prompt learnin主要應用在few-shot learning場景,先將訓練數(shù)據(jù)轉(zhuǎn)換成prompt的形式,在訓練過程模型側(cè)重于記憶訓練數(shù)據(jù),然后使用記憶的信息做預測。這個過程會導致模型缺乏泛化能力,一些長尾的case預測效果不好。

NIPS 2022中浙大和阿里提出使用檢索方法增強prompt learning,利用訓練數(shù)據(jù)構(gòu)造知識庫,在訓練階段使用知識庫+KNN檢索相關(guān)信息輔助學習,通過這種方式將需要記憶的信息從模型中拆分出來,直接輸入到模型中。通過這種方式,可以讓模型參數(shù)更側(cè)重泛化信息的學習,而不是過擬合訓練數(shù)據(jù)。下面為大家詳細介紹一下這篇工作。

NLP Prompt系列——Prompt Engineering方法詳細梳理

1 Prompt Learning回顧

Prompt learning主要面向的是訓練數(shù)據(jù)較少的場景。首先需要一個預訓練模型,然后將下游任務轉(zhuǎn)換成完形填空的形式。對于分類問題,判斷某個text屬于哪個label,轉(zhuǎn)換成如下的文本輸入到預訓練語言模型中:

0562950c-47b1-11ed-a3b6-dac502259ad0.png

利用預訓練語言模型,預測出[MASK]對應的文本,后面接一個文本到label的映射函數(shù),即可實現(xiàn)文本分類任務。Prompt learning的好處是可以充分利用預訓練語言模型的知識,讓下游任務和預訓練任務更加適配,以提升樣本量不足情況下的效果。我在之前的文章NLP Prompt系列——Prompt Engineering方法詳細梳理詳細介紹過prompt相關(guān)工作,感興趣的同學可以進一步閱讀。

雖然這種方法充分運用了預訓練語言模型的知識,但畢竟finetune的數(shù)據(jù)少,模型更像在死記硬背訓練prompt數(shù)據(jù)中的信息。這對于長尾樣本或非典型的句子的預測效果不友好。為了解決上述問題,本文的核心思路是,如果我們把這些需要記憶的信息單獨拿出來存儲到一個知識庫中,在需要的時候檢索它們并作為模型額外輸入,就能讓模型參數(shù)沒必要再死記硬背這些信息了,從而實現(xiàn)記憶和泛化更好的平衡,有點【好記性不如爛筆頭】的感覺。下圖是本文提出的基本框架示意圖。

05700160-47b1-11ed-a3b6-dac502259ad0.png

2 從知識庫中檢索信息

實現(xiàn)上面的框架核心是從知識庫中檢索信息,這也就涉及到兩個問題,一個是如何構(gòu)造知識庫,另一個是如何進行信息檢索和利用

在知識庫的構(gòu)造上,文中構(gòu)造的是一個{K, V}格式的數(shù)據(jù),訓練集中的每條樣本對應一個{K, V}。K代表這個樣本的prompt輸入模型后[MASK]位置的隱向量,V代表這個樣本的label對應的單詞。由于K是模型輸出的向量,因此每訓練幾輪,就會動態(tài)更新知識庫中的Key,避免Key和模型最新參數(shù)隔代太多不匹配。

在信息檢索和利用上,對于當前樣本模型先得到其[MASK]位置的向量,然后用這個向量在知識庫中進行KNN檢索,每個類別的樣本都取出topK個,檢索的距離度量是向量內(nèi)積。對于每個類別檢索出的向量,使用內(nèi)積做softmax后進行加權(quán)融合,得到這個類別最終向量,拼接到當前樣本embedding后面輸入到模型中:

05b0da96-47b1-11ed-a3b6-dac502259ad0.png

這部分檢索出來的樣本就是將需要記憶的知識直接引入到了當前樣本中,不再需要模型參數(shù)去記憶了。此外,這種將向量引入而不是引入對應的token,可以讓信息的擴展更方便,直接引入樣本的token會拉長輸入樣本長度,導致模型性能下降,且長度也有上限。

05e3acf0-47b1-11ed-a3b6-dac502259ad0.png

3 使用KNN指導模型訓練和預測

上面收的引入知識庫+KNN的方法,緩解了模型參數(shù)需要強記憶訓練樣本的問題。此外,文中還通過KNN檢索結(jié)果來指導模型的學習過程。KNN檢索的好處是不需要模型訓練,直接根據(jù)預訓練的表示計算距離,利用鄰居樣本的label,就能預測當前樣本的label。這對于模型來說是另一個維度的信息補充,文中通過區(qū)分難樣本指導訓練在inference階段指導預測兩個方面進一步指導模型的訓練和預測。

KNN的檢索結(jié)果可以用來區(qū)分難樣本和簡單樣本。通過KNN檢索以及檢索鄰居的label,可以得到當前樣本各個類別的預測概率。這個KNN的預測結(jié)果可以作為是否是難樣本的參考,如果模型預測預測結(jié)果和KNN結(jié)果不一致,就是難樣本。對于難樣本,加大其學習權(quán)重,通過將KNN預測概率引入到交叉熵損失中實現(xiàn):

0611b294-47b1-11ed-a3b6-dac502259ad0.png

另一方面,在預測階段,也直接將KNN的預測結(jié)果拿出來和模型對于[MASK]的預測結(jié)果做插值,得到最終的預測結(jié)果:

062a7b3a-47b1-11ed-a3b6-dac502259ad0.png

4 實驗結(jié)果

文中在9個NLU數(shù)據(jù)集的few-shot和zero-shot learning上對比了效果,可以看到本文提出的方法對于效果的提升還是非常明顯的。

063fd1a6-47b1-11ed-a3b6-dac502259ad0.png

此外,文中也對比了跨領(lǐng)域的效果,在source domain進行prompt learning,對比在target domain上的效果:

06658856-47b1-11ed-a3b6-dac502259ad0.png

5 總結(jié)

檢索在NLP各類任務中的應用越來越多,本文也將檢索用于分離可記憶的信息來提升模型的泛化能力,并取得了顯著效果。檢索通過信息記憶+查詢的方式,引入了豐富的外部信息,能夠讓模型更多的容量服務于學習泛化性,而非簡單的記住訓練數(shù)據(jù)。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7223

    瀏覽量

    90170
  • KNN
    KNN
    +關(guān)注

    關(guān)注

    0

    文章

    22

    瀏覽量

    10883
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    550

    瀏覽量

    10423

原文標題:不要讓模型死記硬背—用檢索增強Prompt Learning

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    《AI Agent 應用與項目實戰(zhàn)》閱讀心得3——RAG架構(gòu)與部署本地知識庫

    應用。第六章深入探討了RAG架構(gòu)的工作原理,該技術(shù)通過在推理過程中實時檢索和注入外部知識來增強模型的生成能力。RAG架構(gòu)的核心是檢索器和生成器兩大模塊,檢索器負責從
    發(fā)表于 03-07 19:49

    學習STM32必備的知識庫

    學習STM32必備的知識庫包括STM32F103C8T6寄存器手冊、STM32F103ZET6各IO口功能、STM32固件使用手冊(中文版)、stm32學習方法,參考手冊還有樣品申請
    發(fā)表于 04-01 14:16

    使用KNN進行分類和回歸

    ,這種學習器很少或根本不處理訓練數(shù)據(jù)。與線性回歸等積極學習的算法不同,KNN 不會估計在訓練階段
    發(fā)表于 10-28 14:44

    基于知識庫的智能策略翻譯技術(shù)

    提出基于知識庫的策略翻譯方法,設計策略翻譯組成結(jié)構(gòu),分析策略知識及其表示形式,建立動態(tài)可擴展的策略知識庫,開發(fā)可擴展的策略編譯器和策略組裝器。實例測試表明,該
    發(fā)表于 04-22 09:42 ?11次下載

    一種基于解釋的知識庫綜合

    知識庫的解釋出發(fā),對概念和概念間關(guān)系的解釋進行了分析,定義了知識庫系統(tǒng)的最小概念集合,設計了生成最小概念集合的方法,提出了基于解釋的知識庫綜合算法,討論了該
    發(fā)表于 05-07 20:44 ?16次下載

    領(lǐng)域知識庫的研究與設計

    領(lǐng)域知識庫的構(gòu)建有利于知識檢索和共享。分析了領(lǐng)域知識庫應具備的條件,指出構(gòu)建領(lǐng)域知識庫的有效方法
    發(fā)表于 08-29 14:39 ?0次下載

    NXP NFC知識庫

    NXP NFC知識庫
    發(fā)表于 12-30 17:32 ?49次下載

    一種面向微生物領(lǐng)域的知識庫構(gòu)建方法

    一種面向微生物領(lǐng)域的知識庫構(gòu)建方法_陳航
    發(fā)表于 01-07 20:49 ?0次下載

    本體知識庫的模塊與保守擴充

    模塊化是軟件工程的一種方法,近年來被引入到本體領(lǐng)域,用以支持本體的重用和本體的整合。已有的工作沒有討論同時含有TBox和ABox的本體知識庫的模塊化的相關(guān)問題。在定義本體知識庫的模塊和
    發(fā)表于 11-24 09:58 ?0次下載

    虛擬儀器知識庫文件的結(jié)構(gòu)組成和知識庫文件自動生成器的設計與應用

    在前幾章中,重點介紹了VISA規(guī)范、儀器驅(qū)動程序規(guī)范及軟面板規(guī)范,這些構(gòu)成了虛擬儀器及系統(tǒng)設計的關(guān)鍵部分。為了將VXI產(chǎn)品更有效地集成到虛擬儀器系統(tǒng)中去,VXI總線即插即用系統(tǒng)聯(lián)盟還定義了虛擬儀器知識庫文件的結(jié)構(gòu)。本章介紹了虛擬儀器知識庫文件的結(jié)構(gòu)組成,并重點介紹了
    發(fā)表于 12-05 14:21 ?2次下載
    虛擬儀器<b class='flag-5'>知識庫</b>文件的結(jié)構(gòu)組成和<b class='flag-5'>知識庫</b>文件自動生成器的設計與應用

    復雜知識庫問答任務的典型挑戰(zhàn)和解決方案

    基于語義解析(基于SP)的方法和基于信息檢索(基于IR)的方法。首先,我們形式化地定義了知識庫問答任務并介紹了該任務下
    的頭像 發(fā)表于 06-13 09:49 ?2525次閱讀

    面向異質(zhì)信息的網(wǎng)絡表示學習方法綜述

    面向異質(zhì)信息的網(wǎng)絡表示學習方法綜述
    發(fā)表于 06-09 14:12 ?13次下載

    如何基于亞馬遜云科技LLM相關(guān)工具打造知識庫

    了解其核心組件、快速部署指南以及LangChain集成及其在電商的應用場景。 通用場景:基于企業(yè)內(nèi)部知識庫例如IT/HR信息的問答 制造行業(yè):裝備維保知識庫問答和售后客服 金融行業(yè):智能客服和智能報告生成 教育行業(yè):面向?qū)W生和面
    的頭像 發(fā)表于 11-23 17:53 ?1183次閱讀
    如何基于亞馬遜云科技LLM<b class='flag-5'>相關(guān)</b>工具打造<b class='flag-5'>知識庫</b>

    無監(jiān)督域自適應場景:基于檢索增強的情境學習實現(xiàn)知識遷移

    本文對比了多種基線方法,包括無監(jiān)督域自適應的傳統(tǒng)方法(如Pseudo-labeling和對抗訓練)、基于檢索的LM方法(如REALM和RAG
    發(fā)表于 12-05 14:14 ?713次閱讀
    無監(jiān)督域自適應場景:基于<b class='flag-5'>檢索</b>增強的情境<b class='flag-5'>學習</b>實現(xiàn)<b class='flag-5'>知識</b>遷移

    如何手擼一個自有知識庫的RAG系統(tǒng)

    用于自然語言處理任務,如文本生成、問答系統(tǒng)等。 我們通過一下幾個步驟來完成一個基于京東云官網(wǎng)文檔的RAG系統(tǒng) 數(shù)據(jù)收集 建立知識庫 向量檢索 提示詞與模型 數(shù)據(jù)收集 數(shù)據(jù)的收集再整個RAG實施過程中無疑是最耗人工的,涉及到收集、清洗、格式化、切分等過程。這里我們使用京東云
    的頭像 發(fā)表于 06-17 14:59 ?749次閱讀
    主站蜘蛛池模板: 999久久久国产精品蜜臀AV | 日韩一区二区三区射精 | 口内射精颜射极品合集 | 一边啪啪的一边呻吟声口述 | 4虎最新网址 | 果冻传媒AV精品一区 | 久久成人免费大片 | [高清无码] 波多野结衣| 国产精品久久国产三级国不卡顿 | 国产亚洲精品久久久无码狼牙套 | 无码人妻丰满熟妇啪啪网不卡 | 世界上第一个得抑郁症的人是谁 | 国产网址在线观看 | 日韩在线看片中文字幕不卡 | 蜜芽手机在线观看 | 国产激情视频在线观看 | avtt天堂网2014| 国产精品第一综合首页 | 欧美性色生活片天天看99顶级 | 麻豆国产原创中文AV网站 | 久久88综合 | 羲义嫁密着中出交尾gvg794 | 国产午夜精品不卡视频 | 亚洲综合久久一本伊伊区 | 国产人妻人伦精品1国产 | 护士日本ⅹxxx丰满hd | 国产成人在线视频 | 97成人精品视频在线播放 | 第一次处破女18分钟免费 | 亚洲精品电影久久久影院 | 中文无码热在线视频 | 动漫女主被扒开双腿羞辱 | 亚洲综合香蕉在线视频 | 暖暖在线观看播放视频 | 国产精品成人无码久免费 | 免费韩国伦理2017最新 | 亚洲男同tv | 影音先锋av男人资源 | 国产精品免费一区二区三区四区 | 亚洲在线国产日韩欧美 | 日本高清加勒比 |