色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

揭秘Prompt的前世今生

自然語言處理愛好者 ? 來源:RUC AI Box ? 作者:閔映乾 ? 2021-09-01 10:28 ? 次閱讀

作者|閔映乾機構|中國人民大學信息學院碩士方向 | 自然語言處理 來自 | RUC AI Box

導讀:本文目標是對近期火爆異常的Prompt相關研究作一些追溯和展望,內容主要參考論文《Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing》,并摻雜了筆者的一些個人見解,歡迎大家積極討論~

論文的arxiv鏈接如下:

https://arxiv.org/abs/2107.13586

一、Prompt的產生和興起

近幾年來,有關預訓練語言模型(PLM)的研究比比皆是,自然語言處理(NLP)也借著這股春風獲得了長足發展。尤其是在2017-2019年間,研究者們的重心逐漸從傳統task-specific的有監督模式轉移到預訓練上。基于預訓練語言模型的研究思路通常是“pre-train, fine-tune”,即將PLM應用到下游任務上,在預訓練階段和微調階段根據下游任務設計訓練對象并對PLM本體進行調整。

隨著PLM體量的不斷增大,對其進行fine-tune的硬件要求、數據需求和實際代價也在不斷上漲。除此之外,豐富多樣的下游任務也使得預訓練和微調階段的設計變得繁瑣復雜,因此研究者們希望探索出更小巧輕量、更普適高效的方法,Prompt就是一個沿著此方向的嘗試。

融入了Prompt的新模式大致可以歸納成”pre-train, prompt, and predict“,在該模式中,下游任務被重新調整成類似預訓練任務的形式。例如,通常的預訓練任務有Masked Language Model, 在文本情感分類任務中,對于 “I love this movie.” 這句輸入,可以在后面加上prompt “The movie is ___” 這樣的形式,然后讓PLM用表示情感的答案填空如 “great”、“fantastic” 等等,最后再將該答案轉化成情感分類的標簽,這樣以來,通過選取合適的prompt,我們可以控制模型預測輸出,從而一個完全無監督訓練的PLM可以被用來解決各種各樣的下游任務。

因此,合適的prompt對于模型的效果至關重要。大量研究表明,prompt的微小差別,可能會造成效果的巨大差異。研究者們就如何設計prompt做出了各種各樣的努力——自然語言背景知識的融合、自動生成prompt的搜索、不再拘泥于語言形式的prompt探索等等,筆者將會在第三節進行進一步討論。

二、什么是Prompt

Prompt剛剛出現的時候,還沒有被叫做Prompt,是研究者們為了下游任務設計出來的一種輸入形式或模板,它能夠幫助PLM“回憶”起自己在預訓練時“學習”到的東西,因此后來慢慢地被叫做Prompt了。

對于輸入的文本,有函數,將轉化成prompt的形式,即:

該函數通常會進行兩步操作:

使用一個模板,模板通常為一段自然語言,并且包含有兩個空位置:用于填輸入的位置和用于生成答案文本的位置。

把輸入填到的位置。

還用前文提到的例子。在文本情感分類的任務中,假設輸入是

“ I love this movie.”

使用的模板是

“ [X] Overall, it was a [Z] movie.”

那么得到的就應該是 “I love this movie. Overall it was a [Z] movie.”

在實際的研究中,prompts應該有空位置來填充答案,這個位置一般在句中或者句末。如果在句中,一般稱這種prompt為cloze prompt;如果在句末,一般稱這種prompt為prefix prompt。和的位置以及數量都可能對結果造成影響,因此可以根據需要靈活調整。

另外,上面的例子中prompts都是有意義的自然語言,但實際上其形式并不一定要拘泥于自然語言。現有相關研究使用虛擬單詞甚至直接使用向量作為prompt,筆者將會在第三節講到。

下一步會進行答案搜索,顧名思義就是LM尋找填在處可以使得分數最高的文本 。最后是答案映射。有時LM填充的文本并非任務需要的最終形式,因此要將此文本映射到最終的輸出。例如,在文本情感分類任務中,“excellent”, “great”, “wonderful” 等詞都對應一個種類 “++”,這時需要將詞語映射到標簽再輸出。

三、Prompt的設計

Prompt大致可以從下面三個角度進行設計:

Prompt的形狀

手工設計模板

自動學習模板

Prompt的形狀

Prompt的形狀主要指的是和的位置和數量。上文提到過cloze prompt和prefix prompt的區別,在實際應用過程中選擇哪一種主要取決于任務的形式和模型的類別。cloze prompts和Masked Language Model的訓練方式非常類似,因此對于使用MLM的任務來說cloze prompts更加合適;對于生成任務來說,或者使用自回歸LM解決的任務,prefix prompts就會更加合適;Full text reconstruction models較為通用,因此兩種prompt均適用。另外,對于文本對的分類,prompt模板通常要給輸入預留兩個空,和。

手工設計模板

Prompt最開始就是從手工設計模板開始的。手工設計一般基于人類的自然語言知識,力求得到語義流暢且高效的模板。例如,Petroni等人在著名的LAMA數據集中為知識探針任務手工設計了cloze templates;Brown等人為問答、翻譯和探針等任務設計了prefix templates。手工設計模板的好處是較為直觀,但缺點是需要很多實驗、經驗以及語言專業知識,代價較大。

自動學習模板

為了解決手工設計模板的缺點,許多研究開始探究如何自動學習到合適的模板。自動學習的模板又可以分為離散(Discrete Prompts)和連續(Continuous Prompts)兩大類。離散的主要包括 Prompt Mining, Prompt Paraphrasing, Gradient-based Search, Prompt Generation 和 Prompt Scoring;連續的則主要包括Prefix Tuning, Tuning Initialized with Discrete Prompts 和 Hard-Soft Prompt Hybrid Tuning。

離散Prompts

自動生成離散Prompts指的是自動生成由自然語言的詞組成的Prompt,因此其搜索空間是離散的。目前大致可以分成下面幾個方法:

Prompt Mining. 該方法需要一個大的文本庫支持,例如Wikipedia。給定輸入和輸出,要找到和之間的中間詞或者依賴路徑,然后選取出現頻繁的中間詞或依賴路徑作為模板,即“[X] middle words [Z]”。

Prompt Paraphrasing. Paraphrasing-based方法是基于釋義的,主要采用現有的種子prompts(例如手動構造),并將其轉述成一組其他候選prompts,然后選擇一個在目標任務上達到最好效果的。一般的做法有:將提示符翻譯成另一種語言,然后再翻譯回來;使用同義或近義短語來替換等。

Gradient-based Search. 梯度下降搜索的方法是在單詞候選集里選擇詞并組合成prompt,利用梯度下降的方式不斷嘗試組合,從而達到讓PLM生成需要的詞的目的。

Prompt Generation. 既然Prompt也是一段文本,那是否可以用文本生成的方式來生成Prompt呢?該類方法就是將標準的自然語言生成的模型用于生成prompts了。例如,Gao等人將T5引入了模板搜索的過程,讓T5生成模板詞;Ben-David 等人提出了一種域自適應算法,訓練T5為每個輸入生成一種唯一的域相關特征,然后把輸入和特征連接起來組成模板再用到下游任務中。

Prompt Scoring. Davison等人在研究知識圖譜補全任務的時候為三元組輸入(頭實體,關系,尾實體)設計了一種模板。首先人工制造一組模板候選,然后把相應的[X]和[Z]都填上成為prompts,并使用一個雙向LM給這些prompts打分,最后選取其中的高分prompt。

連續Prompts

既然構造Prompt的初衷是能夠找到一個合適的方法,讓PLM更“聽話”地得出我們想要的結果,那就不必把prompt的形式拘泥于人類可以理解的自然語言了,只要機器可以理解就好了。因此,還有一些方法探索連續型prompts——直接作用到模型的embedding空間。連續型prompts去掉了兩個約束條件:

模板中詞語的embedding可以是整個自然語言的embedding,不再只是有限的一些embedding。

模板的參數不再直接取PLM的參數,而是有自己獨立的參數,可以通過下游任務的訓練數據進行調整。

目前的連續prompts方法大致可以分為下面幾種:

Prefix Tuning. Prefix Tuning最開始由Li等人提出,是一種在輸入前添加一串連續的向量的方法,該方法保持PLM的參數不動,僅訓練合適的前綴(prefix)。它的形式化定義是,在給定一個可訓練的前綴矩陣和一個固定的參數化為的PLM的對數似然目標上進行優化。

141c316e-fd9a-11eb-9bcf-12bb97331649.png

其中

146d48ba-fd9a-11eb-9bcf-12bb97331649.png

指的是所有神經網絡層在第i個時間步的連接。如果對應的時間步在前綴中,則它可以直接從前綴矩陣中復制過來;否則需要使用PLM進行計算。

類似地,Lester等人在輸入序列前面加上特殊的token來組成一個模板,然后直接調整這些token的embedding。 和上面的Prefix Tuning的方法相比,他們的方法相對來說參數較少,因為沒有在每一層網絡中引入額外的參數。

Tuing Initialized with Discrete Prompts. 這類方法中連續prompts是用已有的prompts初始化的,已有的prompts可以是手工設計的,也可以是之前搜索發現的離散prompts。Zhong 等人先用一個離散prompt搜索方法定義了一個模板,然后基于該模板初始化虛擬的token,最后微調這些token的embedding以提高準確率。

Hard-Soft Prompt Hybrid Tuning. 這類方法可以說是手工設計和自動學習的結合,它通常不單純使用可學習的prompt模板,而是在手工設計的模板中插入一些可學習的embedding。Liu等人提出了“P-Tuning”方法,通過在input embedding中插入可訓練的變量來學習連續的prompts。

并且,該方法使用BiLSTM的輸出來表示prompt embeddings,以便讓prompt tokens之間有一定的交互。P-tuning還引入了任務相關的anchor tokens(例如關系提取中的“capital”)來進一步提高效果,這些anchor tokens不參與后續的調優。

Han等人提出了Prompt Tunning with Rules(PTR)方法,使用手工指定的子模板按照邏輯規則組裝成完整的模板。為了增強生成的模板的表示能力,該方法還插入了幾個虛擬token,這些虛擬token的embeddings可以和PLM的參數一起被調整,PTR的模板token既有實際token也有虛擬token 。實驗結果證明了該方法在關系分類任務中的有效性。

四、Prompt的挑戰與展望

盡管Prompt相關研究搞得如火如荼,但目前仍存在許多問題,值得研究者們去探索。

Prompt的設計問題。目前使用Prompt的工作大多集中育分類任務和生成任務,其它任務則較少,因為如何有效地將預訓練任務和prompt聯系起來還是一個值得探討的問題。另外,模板和答案的聯系也函待解決。模型的表現同時依賴于使用的模板和答案的轉化,如何同時搜索或者學習出兩者聯合的最好效果仍然很具挑戰性。

Prompt的理論分析和可解釋性。盡管Prompt方法在很多情況下都取得了成功,但是目前prompt-based learning的理論分析和保證還很少,使得人們很難了解Prompt為什么能達到好的效果,又為什么在自然語言中意義相近的Prompt有時效果卻相差很大。

Prompt在PLM debias方面的應用。由于PLM在預訓練過程中見過了大量的人類世界的自然語言,所以很自然地受到了影響。拿一個簡單的例子來說,可能不太恰當,比如說訓練語料中有很多的“The capital of China is ”Beijing.“,導致模型認為下次看到”capital“ 的時候都會預測出”Beijing“,而不是著重看到底是哪個國家的首都。

在應用的過程中,Prompt還暴露了PLM學習到的很多其它bias,比如種族歧視、恐怖主義、性別對立等等。已有相關研究關注是否可以利用Prompt來對這些bias進行修正,但還處在比較初級的階段,這也會是一個值得研究的方向。

五、引用

[1] Liu P, Yuan W, Fu J, et al. Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing[J]。 arXiv preprint arXiv:2107.13586, 2021.

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • PLM
    PLM
    +關注

    關注

    2

    文章

    121

    瀏覽量

    20863
  • nlp
    nlp
    +關注

    關注

    1

    文章

    488

    瀏覽量

    22033
  • prompt
    +關注

    關注

    0

    文章

    14

    瀏覽量

    2677

原文標題:NLP新寵——淺談Prompt的前世今生

文章出處:【微信號:NLP_lover,微信公眾號:自然語言處理愛好者】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    深入了解Java泛型——從前世今生到PECS原則

    本文主要介紹泛型誕生的前世今生,特性,以及著名PECS原則的由來。 在日常開發中,必不可少的會使用到泛型,這個過程中經常會出現類似“為什么這樣會編譯報錯?”,“為什么這個列表無法添加
    的頭像 發表于 11-21 11:45 ?141次閱讀
    深入了解Java泛型——從<b class='flag-5'>前世</b><b class='flag-5'>今生</b>到PECS原則

    AI對話魔法 Prompt Engineering 探索指南

    作者:京東物流 李雪婷 一、什么是 Prompt Engineering? 想象一下,你在和一個智能助手聊天,你需要說出非常清晰和具體的要求,才能得到你想要的答案。Prompt
    的頭像 發表于 11-07 10:11 ?791次閱讀
    AI對話魔法 <b class='flag-5'>Prompt</b> Engineering 探索指南

    帶你揭秘:功率放大器的前世今生~

    關于功率放大器功率放大器,作為一種可放大交直流信號,在給定失真率條件下,能產生最大功率輸出以驅動某一負載的實驗室儀器,在MEMS測試、超聲波測試、電磁場驅動、無線電能傳輸、院校電子實驗測試等領域都有良好應用,那么你知道功放的發展史嗎?今天Aigtek就給大家分享一下~功率放大器發展史功率放大器的發展史可以追溯至20世紀初,隨著電子技術的不斷進步,功率放大器也
    的頭像 發表于 11-07 08:00 ?982次閱讀
    帶你<b class='flag-5'>揭秘</b>:功率放大器的<b class='flag-5'>前世</b><b class='flag-5'>今生</b>~

    揭秘共模電感漏感對使用有影響嗎

    電子發燒友網站提供《揭秘共模電感漏感對使用有影響嗎.docx》資料免費下載
    發表于 09-30 14:45 ?1次下載

    LDO噪聲揭秘

    電子發燒友網站提供《LDO噪聲揭秘.pdf》資料免費下載
    發表于 09-21 09:13 ?0次下載
    LDO噪聲<b class='flag-5'>揭秘</b>

    DM368 NAND Flash啟動揭秘

    電子發燒友網站提供《DM368 NAND Flash啟動揭秘.pdf》資料免費下載
    發表于 08-27 09:22 ?0次下載
    DM368 NAND Flash啟動<b class='flag-5'>揭秘</b>

    揭秘中國汽車芯片市場:主要企業有哪些?

    揭秘中國汽車芯片市場:主要企業有哪些?
    的頭像 發表于 07-19 10:12 ?565次閱讀
    <b class='flag-5'>揭秘</b>中國汽車芯片市場:主要企業有哪些?

    EMC大揭秘 PCB設計必備指南

    EMC大揭秘 PCB設計必備指南
    的頭像 發表于 06-15 16:29 ?3062次閱讀
    EMC大<b class='flag-5'>揭秘</b> PCB設計必備指南

    嵌入式系統的前世今生

    一、初始階段(1960-1970)1960年代末:嵌入式系統的概念開始形成,最初用于專業的軍事和航天應用,例如用于導彈控制的計算機系統。微處理器的誕生:1971年,英特爾推出了4004芯片,這是世界上第一個商用微處理器。它的出現標志著嵌入式系統發展的一個里程碑,使得更小型、成本更低的電子設備設計成為可能。二、發展階段(1980年代)個人計算機(PC)的普及:
    的頭像 發表于 04-12 08:11 ?1615次閱讀
    嵌入式系統的<b class='flag-5'>前世</b><b class='flag-5'>今生</b>

    揭秘共模電感選擇技巧

    電子發燒友網站提供《揭秘共模電感選擇技巧.docx》資料免費下載
    發表于 03-29 14:36 ?0次下載

    醫療新革命,磁傳感技術應用細分揭秘

    電子發燒友網站提供《醫療新革命,磁傳感技術應用細分揭秘!.pdf》資料免費下載
    發表于 03-05 14:39 ?4次下載

    FPGA中競爭與冒險的前世今生

    競爭冒險:在組合電路中,當邏輯門有兩個互補輸入信號同時向相反狀態變化時,輸出端可能產生過渡干擾脈沖的現象,稱為競爭冒險。那么 FPGA 產生競爭冒險的原因是什么呢? 信號在 FPGA 器件內部通過連線和邏輯單元時,都有一定的延時。 延時的大小與連線的長短和邏輯單元的數目有關 同時還受器件的制造工藝、工作電壓、溫度等條件的影響 信號的高低電平轉換也需要一定的過渡時間 。由于以上存在的因素,多路信號的電平值發生變化時,在信號變化的瞬間,組合邏輯的輸出有先后順序,并不是同時變化往往會出現一些不正確的尖峰信號,這些尖峰信號稱為毛刺 。如果一個組合邏輯電路中有毛刺出現,就說明該電路存在冒險 。與分立元件不同,由于 PLD 內部不存在寄生電容電感,這些毛刺將被完整的保留并向下一級傳遞,因此毛刺現象在 PLD 、 FPGA 設計中尤為突出 。 毛刺的累加 將會影響整個設計的可靠性和精確性 。因此判斷邏輯電路中是否存在冒險以及如何避免冒險是 FPGA 設計人員必須要考慮的問題。 接下來我們就要考慮如何消除冒險 ,消除冒險的方式有一下幾種: 1、利用冗余項消除毛刺 函數式和真值表所描述的是靜態邏輯,而競爭則是從一種 穩態到另一種穩態的過程。因此競爭是動態過程,它發生在輸入變量變化時。此時,修改卡諾圖,增加多余項,在卡諾圖的兩圓相切處增加一個圓,可以消除邏輯冒險。但該法對于計數器型產生的毛刺是無法消除的。 2、采用格雷碼 我們可以通過改變設計,破壞毛刺產生的條件,來減少毛刺的發生。例如,在數字電路設計中,常常采用格雷碼計數器取代普通的二進制計數器,這是因為格雷碼計數器的輸出每次只有一位跳變 消除了競爭冒險的發生條件,避免了毛刺的產生。 3、采樣法 由于冒險出現在變量發生變化的時刻,如果待信號穩定之后加入取樣脈沖,那么就只有在取樣脈沖作用期間輸出的信號才能有效。這樣可以避免產生的毛刺影響輸出波形。 一般說來,冒險出現在信號發生電平轉換的時刻,也就是說在輸出信號的建立時間內會發生冒險,而在輸出信號 的保持時間內是不會有毛刺信號出現的。如果在輸出信號的保持時間內對其進行采樣,就可以消除毛刺信號的影響。 4、吸收法 增加輸出濾波,在輸出端接上小電容C可以濾除毛刺 。但輸出波形的前后沿將變壞,在對波形要求較嚴格時,應再加整形電路,該方法不宜在中間級使用。 5、延遲辦法 因為毛刺最終是由于延遲造成的,所以可以找出產生延遲的支路。對于相對延遲小的支路,加上毛刺寬度 的延遲可以消除毛刺。 還可以用高頻時鐘來驅動一移位寄存器,待延時信號作數據輸入,按所需延時正確設置移位寄存器的級數 ,移位寄存器的輸出即為延時后的信號。 當然最好的就是,在設計之初,就對競爭冒險進行規避,具體規避方法有: 1、在設計中每一個模塊中只用一個時鐘,避免使用多時鐘設計,同時避免使用主時鐘分頻后的二次時鐘作為時序器件的時鐘輸入, 因為時鐘偏斜會比較大 。 2、設計譯碼邏輯電路時必須十分小心,因為譯碼器和比較器本身會產生尖峰,容易產生毛刺,把譯碼器或比較器的輸出直接連到時鐘輸入端或異步清除端,會造成嚴重的后果。 3、在設計中 應該盡量避免隱含 RS 觸發器的出現。一般要控制輸出被直接反饋到輸入端,采用反饋環路會出現隱含 RS 觸發器,其對輸入尖峰和假信號很敏感,輸入端有任何變化都有可能使輸出值立刻改變,此時易造成毛刺的產生,導致時序的嚴重混亂。 4、在設計電路時 要用寄存器和觸發器設計電路,盡量不要用鎖存器,因它對輸入信號的毛刺太敏感。如果堅持用鎖存器設計必須保證輸入信號絕對沒有毛刺,且滿足保持時間。 5、在設計中充分利用資源 ,因為 大部分 FPGA 器件都為時鐘、復位、預置等信號提供特殊的全局布線資源,要充分利用這些資源。 6、在設計中 不論是控制信號還是地址總線信號、數據總線信號,都要采用另外的寄存器,以使內部歪斜的數據變成同步數據。 7、在設計中 應該盡 量避免使用延遲線,因它對工藝過程的變化極為敏感,會大大降低電路的穩定性和可靠性,并將為測試帶來麻煩。 8、在設計中 對所有模塊的輸入時鐘、輸入信號、輸出信號都用D觸發器或寄存器進行同步處理,即輸出信號直接來自觸發器或寄存器的輸出端。這樣可以消除尖峰和毛刺信號。
    發表于 02-21 16:26

    如何從訓練集中生成候選prompt 三種生成候選prompt的方式

    這個“gradient”怎么得到的了呢,這是個啥玩意,怎么還有梯度?注意,注意。人家是帶引號的!比喻成梯度。這玩意有什么用呢。 文章指出給定一批error samples(當前prompt無法
    的頭像 發表于 01-12 11:29 ?1045次閱讀
    如何從訓練集中生成候選<b class='flag-5'>prompt</b> 三種生成候選<b class='flag-5'>prompt</b>的方式

    機器人的前世今生

    機器人主要是用于代替人工作的,首先它是一個機器。對于傳統的機器,被使用者設計制造出來后,它的工作步驟、路徑都是確定的。機器的設計也是根據它所應用的工作而進行的。
    發表于 12-29 14:54 ?557次閱讀
    機器人的<b class='flag-5'>前世</b><b class='flag-5'>今生</b>

    折疊屏手機的FPC技術揭秘:它如何影響手機的重量和性能?

    折疊屏手機的FPC技術揭秘:它如何影響手機的重量和性能?
    的頭像 發表于 12-27 10:08 ?1082次閱讀
    主站蜘蛛池模板: 国产女人乱人伦精品一区二区| 亚洲性爱城| 韩国黄电影| 亚洲午夜久久久精品电影院 | 国产精品爽爽久久久久久蜜桃| 午夜亚洲WWW湿好大| 护士们的母狗| 中文在线观看免费网站| 暖暖在线观看播放视频| 超碰人人草在线视频| 午夜国产视频| 久久精品视频在线看15| 99久久国产综合色| 涩涩视频www在线观看入口| 国产无遮挡无码视频在线观看不卡| 亚洲免费无l码中文在线视频| 久久三级视频| YELLOW视频直播在线观看高清| 偷拍 拍自 欧美色区| 精品国产品国语在线不卡丶| 40岁东北老阿姨无码| 日韩欧美视频一区二区在线观看| 国产麻豆精品人妻无码A片| 欲插爽乱浪伦骨| 强奷乱码欧妇女中文字幕熟女| 国产精品VIDEOS麻豆TUBE| 一二三四在线观看高清电视剧 | 狠狠撩色姣姣综合久久| 2021全国精品卡一卡二| 日韩亚洲欧美中文高清在线| 好男人午夜www视频在线观看| 6080YYY午夜理论片在线观看| 日韩 无码 手机 在线| 狠狠久久免费视频在线| japanese幼儿videos| 午夜性爽视频男人的天堂在线| 老师破女学生特级毛片| 动漫美女被吸奶| 永久精品免费影院在线观看网站 | 交换娇妻呻吟声不停中文字幕 | 亚洲欧美激情精品一区二区|