色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于Prompt在NER場景的應(yīng)用總結(jié)

深度學(xué)習(xí)自然語言處理 ? 來源:NLP工作站 ? 作者:NLP工作站 ? 2022-05-24 10:54 ? 次閱讀

寫在前面

大家好,我是劉聰NLP。

最近在做Prompt的相關(guān)內(nèi)容,本人意識中一直覺得Prompt機制在序列標(biāo)注任務(wù)上不是很好轉(zhuǎn)換,因此,很早前,組長問我時,我夸下海口,說:“誰用prompt做NER呀”。然后,調(diào)研發(fā)現(xiàn)大佬們真是各顯神通,是我目光短淺了。于是,決定進行一番總結(jié),分享給大家。「有點長,大家慢慢看,記得點贊收藏轉(zhuǎn)發(fā)」

部分論文已經(jīng)在自己的數(shù)據(jù)上進行了實驗,最后一趴會進行簡要概述,并且會分析每種方法的優(yōu)劣。

TemplateNER

TemplateNER,原文《Template-Based Named Entity Recognition Using BART》,是第一篇將Prompt方法應(yīng)用于序列標(biāo)注任務(wù)的論文,核心思想是通過N-Gram方法構(gòu)建候選實體,然后將其與所有手工模板進行拼接,使用BART模型對其打分,從而預(yù)測出最終實體類別。是一篇「手工模板且無答案空間映射」的Prompt論文。

paper:https://arxiv.org/abs/2106.01760
github:https://github.com/Nealcly/templateNER

模型,訓(xùn)練階段如下圖(c)所示,預(yù)測階段如下圖(b)所示,下面詳細(xì)介紹。

c205ac22-da96-11ec-ba43-dac502259ad0.png

任務(wù)構(gòu)造

將序列標(biāo)注任務(wù)轉(zhuǎn)換成一個生成任務(wù),在Encoder端輸入為原始文本,Decoder端輸入的是一個已填空的模板文本,輸出為已填空的模板文本。待填空的內(nèi)容為候選實體片段以及實體類別。候選實體片段由原始文本進行N-Gram滑窗構(gòu)建,為了防止候選實體片段過多,論文中最大進行8-gram。

模板構(gòu)建

模板為手工模板,主要包括正向模板和負(fù)向模板,其中,正向模板表示一個文本片段是某種實體類型,負(fù)向文本表示一個文本片段不是實體。具體模板如下表所示,我們也可以看出,最終模型效果是與手工模板息息相關(guān)的。

c282593e-da96-11ec-ba43-dac502259ad0.png

訓(xùn)練階段

在訓(xùn)練階段,正樣本由實體+實體類型+正向模板構(gòu)成,負(fù)樣本由非實體片段+負(fù)向模板構(gòu)成;由于負(fù)樣本過多,因此對負(fù)樣本進行隨機負(fù)采樣,使其與正樣本的比例保持1.5:1。其學(xué)習(xí)目標(biāo)為:

預(yù)測階段

在預(yù)測階段,將進行8-gram滑窗的所有候選實體片段與模板組合,然后使用訓(xùn)練好的模型進行預(yù)測,獲取每個候選實體片段與模板組合的分?jǐn)?shù)(可以理解為語義通順度PPL,但是計算公式不同),分?jǐn)?shù)計算如下:

其中,表示實體片段,表示第k個實體類別,T_{y_{k},x_{i:j}}表示實體片段與模板的文本。

針對,每個實體片段,選擇分?jǐn)?shù)最高的模板,判斷是否為一個實體,哪種類型的實體。

c2bbc9b2-da96-11ec-ba43-dac502259ad0.png

DemonstrationNER

DemonstrationNER,原文《Good Examples Make A Faster Learner: Simple Demonstration-based Learning for Low-resource NER》,核心思想為在原始文本的基礎(chǔ)上,拼接示例模板信息,提高原始序列標(biāo)注模型的效果。是一篇「示例模板且無答案空間映射」的Prompt論文。

paper:https://arxiv.org/abs/2110.08454
github:https://github.com/INK-USC/fewNER

模型如下圖(b)所示,下面詳細(xì)介紹。

c2f6d124-da96-11ec-ba43-dac502259ad0.png

任務(wù)構(gòu)造

依然是序列標(biāo)注模型,僅將原始文本后面拼接示例模板,而示例模板的作用主要是提供額外信息(什么樣的實體屬于什么類別,與原文相似文本中哪些實體屬于哪些類別等),幫助模型可以更好地識別出原始文本中的實體。

示例模板的構(gòu)建

示例分為面向?qū)嶓w的示例和面向句子的示例,如下圖所示,

c3272626-da96-11ec-ba43-dac502259ad0.png

面向?qū)嶓w的示例構(gòu)造方法包括:

  • 隨機法,即,隨機從訓(xùn)練集的實體列表中,抽取若干個實體,作為示例。
  • 統(tǒng)計法,即,選擇在訓(xùn)練集中出現(xiàn)次數(shù)較多的實體,作為示例。
  • 網(wǎng)格搜索法,即,對所有實體進行網(wǎng)格搜索,判斷采用哪些實體作為示例時,在驗證集上的效果最優(yōu)。

面向句子的示例構(gòu)造方法包括:

  • SBERT法,即,使用[CLS]向量之間的余弦值作為句子相似度分?jǐn)?shù),選擇與原始句子最相似的句子作為示例。
  • BERTScore法,即,使用句子中每個token相似度之和作為句子相似度分?jǐn)?shù),選擇與原始句子最相似的句子作為示例。

模板形式主要有三種,無上下文模板、有上下文模板和詞典模板,如下圖所示,

c35d92e2-da96-11ec-ba43-dac502259ad0.png

最終實驗結(jié)果為實體-網(wǎng)格搜索法-有上下文模板效果最佳。分析句子級別不好可能是由于數(shù)據(jù)空間中句子間的相似度太低導(dǎo)致。

訓(xùn)練&預(yù)測

將示例模板拼接到原始模板后面,一起進入模型,僅針對原始文本進行標(biāo)簽預(yù)測與損失計算,如下:

其中,表示原始文本,表示示例模板,表示原始文本經(jīng)過模型后的序列向量,表示示例模板經(jīng)過模型后的序列向量。損失如下:

僅考慮原始文本部分。將需要領(lǐng)域遷移時,將原有模型的參數(shù)賦予新模型,進訓(xùn)練標(biāo)簽映射部分參數(shù)(linear或crf)即可。

c3bb6c3c-da96-11ec-ba43-dac502259ad0.png

LightNER

LightNER,原文《LightNER: A Lightweight Generative Framework with Prompt-guided Attention for Low-resource NER》,核心思想為將原始序列標(biāo)注任務(wù)轉(zhuǎn)化為Seq2Seq的生成任務(wù),通過在transformer的attetion機制中融入提示信息,在少量參數(shù)訓(xùn)練下,使模型達到較好的效果。是一篇「軟模版且有答案空間映射」的Prompt論文。

paper:https://arxiv.org/abs/2109.00720
github:https://github.com/zjunlp/DeepKE/blob/main/example/ner/few-shot/README_CN.md

模型如下圖所示,下面詳細(xì)介紹。

c3f8ed46-da96-11ec-ba43-dac502259ad0.png

任務(wù)構(gòu)造

將序列標(biāo)注任務(wù)轉(zhuǎn)換成一個生成任務(wù),在Encoder端輸入為原始文本,Decoder端逐字生成實體以及實體類型。模板信息融到Encoder和Decoder模型attention機制中,模板為soft-prompt,即一種可學(xué)習(xí)的自動模板。

基于提示引導(dǎo)的Attention

如上圖(b)所示,分別在Encoder和Decoder中加入可訓(xùn)練參數(shù),其中,為transformer的層數(shù),,為模板長度,為隱藏節(jié)點維度,表示由key和value兩項組成。

給定輸入序列,對于每一層transformer,的原始表示如下:

變化后的attention如下:

基于提示引導(dǎo)的Attention可以根據(jù)提示內(nèi)容重新調(diào)節(jié)注意機制,使其少參數(shù)調(diào)節(jié)。并且實驗發(fā)現(xiàn),模板長度和提示信息融入的層數(shù)影響最終效果,當(dāng)長度為10時,效果最佳。當(dāng)層數(shù)為12層時,效果最佳。

c4432294-da96-11ec-ba43-dac502259ad0.png

訓(xùn)練&預(yù)測

對于Encoder端,輸入文本,獲取表示;

對于Decoder端,輸出不僅為實體內(nèi)容還可能為實體類別,即,其每個輸出內(nèi)容為

標(biāo)簽預(yù)測時,

其中,通過答案空間映射得來,具體為“將標(biāo)簽中幾個詞語的向量加權(quán)求和,作為標(biāo)簽的答案空間向量”。

c46828dc-da96-11ec-ba43-dac502259ad0.png

消融實驗發(fā)現(xiàn),基于提示引導(dǎo)的Attention和答案空間映射對于結(jié)果的影響均較大。

EntLM

EntLM,原文《Template-free Prompt Tuning for Few-shot NER》,核心思想為將序列標(biāo)注任務(wù)變成原始預(yù)訓(xùn)練的LM任務(wù),僅通過答案空間映射,實現(xiàn)任務(wù)轉(zhuǎn)化,消除下游任務(wù)與原始LM任務(wù)的Gap,提高模型效果。是一篇「無模板且有答案空間映射」的Prompt論文。

paper:https://arxiv.org/abs/2109.13532
github:https://github.com/rtmaww/EntLM/

模型如下圖所示,下面詳細(xì)介紹。

c4a2949a-da96-11ec-ba43-dac502259ad0.png

任務(wù)構(gòu)造

將序列標(biāo)注任務(wù)轉(zhuǎn)換成一個與預(yù)訓(xùn)練階段一致的LM任務(wù),消除下游任務(wù)與預(yù)訓(xùn)練任務(wù)的Gap。對其輸入文本進行LM預(yù)測,當(dāng)token不是實體時,預(yù)測成與輸入一致的token;當(dāng)token是實體時,預(yù)測成實體類別下的token。而針對每個實體類別下的token的整合,即答案空間映射如何構(gòu)造。

答案空間映射的構(gòu)造

在特定領(lǐng)域下,往往未標(biāo)注文本以及每個實體類別的實體列表是很好獲取的,通過詞表回溯構(gòu)建偽標(biāo)簽數(shù)據(jù),其中,表示實體類別,表示文本數(shù)據(jù)。由于偽標(biāo)簽數(shù)據(jù)會存在很多噪音數(shù)據(jù),因此在構(gòu)建答案空間映射時,使用4種方法,對每個實體類別中的候選詞語進行篩選。

  • 數(shù)據(jù)分布法,即,篩選出在語料庫中,每個實體類別出現(xiàn)頻率最高的幾個詞。
  • 語言模型輸出法,即,將數(shù)據(jù)輸入到語言模型中,統(tǒng)計每個類別中詞匯在語言模型輸出概率的總和,選擇概率最高的幾個詞。
  • 數(shù)據(jù)分布&語言模型輸出法,即將數(shù)據(jù)分布法和語言模型輸出法相結(jié)合,將每個實體類別中的某一詞的詞頻*該詞模型輸出概率作為該詞得分,選擇分?jǐn)?shù)最高的幾個詞。
  • 虛擬標(biāo)簽法,即,使用向量代替實體類別中的詞語,相當(dāng)于類別「原型」,向量獲取辦法為將上述某一種方法獲取的高頻詞,輸入到語言模型中,獲取每個詞語的向量,然后進行加和取平均,獲取類別向量。

c4dc05a4-da96-11ec-ba43-dac502259ad0.png

  • 由于一些高頻詞可能出現(xiàn)在多個實體類別中,造成標(biāo)簽混亂,因此采用閾值過濾方法去除沖突詞語,即(某個類別中的詞語出現(xiàn)的次數(shù)/詞語在所有類別中出現(xiàn)的次數(shù))必須大于規(guī)定的閾值,才將該詞語作為該實體類別的標(biāo)簽詞語。

c511cf68-da96-11ec-ba43-dac502259ad0.png

  • 實驗發(fā)現(xiàn),絕大多少情況下,數(shù)據(jù)分布&語言模型輸出法獲取高頻詞,再使用虛擬標(biāo)簽法獲取類別「原型」的方法最好。

訓(xùn)練&預(yù)測

模型訓(xùn)練階段采用LM任務(wù)的損失函數(shù),如下:

其中,,為預(yù)訓(xùn)練過程中LM層參數(shù)。

c5483a26-da96-11ec-ba43-dac502259ad0.png

UIE

UIE,原文《Unified Structure Generation for Universal Information Extraction》,核心思想為將序列標(biāo)注任務(wù)轉(zhuǎn)化為Seq2Seq的生成任務(wù),將手工提示模板與原始文本進行結(jié)合,通知模型待抽取的內(nèi)容,再通過特定的抽取格式,進行逐字解碼生成,提高模型效果。是一篇「手工模板且無答案空間映射」的Prompt論文。不過UIE適用于所有信息抽取任務(wù),不限于NER任務(wù),但后面主要以NER任務(wù)為例,進行闡述。

paper:https://arxiv.org/abs/2203.12277
github:https://github.com/universal-ie/UIE

模型如下圖所示,下面詳細(xì)介紹。

c595c2aa-da96-11ec-ba43-dac502259ad0.png

值得注意的是,UIE這篇論文與百度Paddle提到到UIE框架并不一個東西(看過源碼的人都知道,不要混淆)。百度Paddle提到到UIE框架本質(zhì)是一個基于提示的MRC模型,將提示模板作為query,文本作為document,使用Span抽取提示對應(yīng)的內(nèi)容片段。

任務(wù)構(gòu)造

將序列標(biāo)注任務(wù)轉(zhuǎn)換成一個生成任務(wù),在Encoder端輸入為提示模板+原始文本,Decoder端逐字生成結(jié)構(gòu)化內(nèi)容。以T5為基礎(chǔ),采用預(yù)訓(xùn)練技術(shù),學(xué)習(xí)從文本到結(jié)構(gòu)化生成。

手工模板

在編碼端,通過待抽取schema(實體類別、關(guān)系等)構(gòu)造Prompt模板,稱為SSI,同于控制生成內(nèi)容。模板樣式如下圖所示,

c5da1414-da96-11ec-ba43-dac502259ad0.png

在解碼端,設(shè)計了特定的抽取結(jié)構(gòu),稱為SEL,而這種特殊的結(jié)構(gòu),也可以算作模板的一種吧,可以使解碼時,按照統(tǒng)一要求進行表示。抽取結(jié)構(gòu)樣式如下圖所示,

c610b33e-da96-11ec-ba43-dac502259ad0.png

只需關(guān)注Entity部分即可。

訓(xùn)練&測試

對于Encoder端,輸入文本以及SSI內(nèi)容,獲取表示為:

對于Decoder端,逐字生成,如下:

由于訓(xùn)練數(shù)據(jù)中,待生成部分的數(shù)據(jù)格式均按照SEL格式構(gòu)造,因此生成內(nèi)容也會遵循其結(jié)構(gòu)。

而模型重點是如何構(gòu)造預(yù)訓(xùn)練數(shù)據(jù),在預(yù)訓(xùn)練過程中,數(shù)據(jù)來自Wikidata、Wikipedia和ConceptNet。并且構(gòu)造的數(shù)據(jù)格式包含三種,分別為、和。

  • ,是通過Wikidata和Wikipedia構(gòu)建的text-to-struct平行語料。
  • ,是僅包含結(jié)構(gòu)化形式的數(shù)據(jù)。
  • ,是無結(jié)構(gòu)化的純文本數(shù)據(jù)。

在預(yù)訓(xùn)練過程中,三種語料對應(yīng)不同的訓(xùn)練損失,訓(xùn)練的網(wǎng)絡(luò)結(jié)構(gòu)也不一樣。訓(xùn)練整個Encoder-Decoder網(wǎng)絡(luò)結(jié)構(gòu),僅訓(xùn)練Decoder網(wǎng)絡(luò)結(jié)構(gòu),進訓(xùn)練Encoder網(wǎng)絡(luò)結(jié)構(gòu),最終的損失是三者的加和。

c63f1a08-da96-11ec-ba43-dac502259ad0.png

總結(jié)

本人在自己的中文數(shù)據(jù)集上,測試了TemplateNER、LightNER和EntLM的效果,驚奇的發(fā)現(xiàn)當(dāng)數(shù)據(jù)量增加到50-shot時,「BERT-CRF」的效果是最好的(別整哪些沒用的,加點數(shù)據(jù)啥都解決了,這也是令我比較沮喪的點。也許、可能、大概、興許、或許是數(shù)據(jù)集或者代碼復(fù)現(xiàn)(code下載錯誤?)的問題,無能狂怒!!!)。

當(dāng)5-shot和10-shot時,EntLM方法的效果較好,但是跟答案空間映射真的是強相關(guān),必須要找到很好的標(biāo)簽詞才能獲取較好的效果。而TemplateNER方法測試時間太久了,在工業(yè)上根本無法落地。

就像之前我對prompt的評價一樣,我從來不否認(rèn)Promot的價值,只是它并沒有達到我的預(yù)期。是世人皆醉我獨醒,還是世人皆醒我獨醉,路還要走,任務(wù)還要做,加油!!!

審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模板
    +關(guān)注

    關(guān)注

    0

    文章

    108

    瀏覽量

    20576
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3259

    瀏覽量

    48910
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24731

原文標(biāo)題:總結(jié) | Prompt在NER場景的應(yīng)用

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    開源大模型多個業(yè)務(wù)場景的應(yīng)用案例

    人工智能發(fā)展浪潮中,大模型的開源與閉源之爭一直是業(yè)內(nèi)的熱點話題。隨著技術(shù)的不斷進步和應(yīng)用場景的日益豐富,如何降低大模型的使用門檻,讓更多人能夠便捷地應(yīng)用于實際業(yè)務(wù)場景,成為了推動行業(yè)發(fā)展的關(guān)鍵所在。而開源大模型,無疑是這一進程
    的頭像 發(fā)表于 12-30 10:16 ?154次閱讀

    倍頻器的技術(shù)原理和應(yīng)用場景

    倍頻器是一種用于將輸入信號的頻率倍增的電子設(shè)備,以下是關(guān)于倍頻器的技術(shù)原理和應(yīng)用場景的詳細(xì)解釋:技術(shù)原理倍頻器的技術(shù)原理主要基于非線性元件(如二極管、晶體管等)的特性和頻率變換技術(shù)。 非線性元件
    發(fā)表于 11-29 14:49

    關(guān)于歐盟法規(guī)中測試場景的研究

    關(guān)于歐盟法規(guī)中測試場景的研究 1.引言 ? 場景是智能網(wǎng)聯(lián)汽車測試技術(shù)的基礎(chǔ),基于場景的功能測試方法對于彌補基于里程的測試方法的局限性,提高系統(tǒng)開發(fā)效率、產(chǎn)品落地效率等方面都有重要作用
    的頭像 發(fā)表于 11-25 16:32 ?262次閱讀
    <b class='flag-5'>關(guān)于</b>歐盟法規(guī)中測試<b class='flag-5'>場景</b>的研究

    關(guān)于中斷知識學(xué)習(xí)總結(jié)筆記

    關(guān)于中斷知識學(xué)習(xí)總結(jié)筆記》 一、中斷的核心概念 中斷是計算機運行過程中的一種重要機制,它能夠使計算機執(zhí)行主程序時,暫停當(dāng)前任務(wù)去響應(yīng)特定的事件或請求,處理完成后再返回主程序繼續(xù)執(zhí)行。這就像是一個
    發(fā)表于 11-23 11:23

    汽車?yán)走_回波發(fā)生器的技術(shù)原理和應(yīng)用場景

    汽車?yán)走_回波發(fā)生器是一種新型的雷達測試設(shè)備,以下是對其技術(shù)原理和應(yīng)用場景的詳細(xì)介紹:技術(shù)原理汽車?yán)走_設(shè)備發(fā)送電磁波信號時,若遇到目標(biāo)物體,該物體會反射出回波信號,隨后被雷達接收機捕獲。這些回波信號
    發(fā)表于 11-15 14:06

    AI對話魔法 Prompt Engineering 探索指南

    作者:京東物流 李雪婷 一、什么是 Prompt Engineering? 想象一下,你和一個智能助手聊天,你需要說出非常清晰和具體的要求,才能得到你想要的答案。Prompt
    的頭像 發(fā)表于 11-07 10:11 ?827次閱讀
    AI對話魔法 <b class='flag-5'>Prompt</b> Engineering 探索指南

    HarmonyOS NEXT應(yīng)用元服務(wù)開發(fā)控件狀態(tài)變化場景

    例如下圖,播放暫停按鈕對應(yīng)著兩種狀態(tài),狀態(tài)切換時需要實時變化對應(yīng)的標(biāo)注信息。 import prompt from \'@system.prompt\' const
    發(fā)表于 10-28 15:13

    實時示波器的技術(shù)原理和應(yīng)用場景

    實時示波器是一種高性能的電子測量儀器,其技術(shù)原理和應(yīng)用場景對于電子工程和通信技術(shù)領(lǐng)域具有重要意義。以下是對實時示波器的技術(shù)原理和應(yīng)用場景的詳細(xì)解釋:一、技術(shù)原理實時示波器的工作原理基于電子束熒光屏
    發(fā)表于 10-23 14:22

    RISC-V中國的發(fā)展機遇有哪些場景

    RISC-V中國的發(fā)展機遇廣泛存在于多個場景,這主要得益于其開源、開放、簡潔、靈活等特性,以及中國作為全球最大的數(shù)據(jù)大國和信息技術(shù)市場的重要地位。以下是一些RISC-V中國的主要發(fā)展機遇
    發(fā)表于 07-29 17:14

    FPGA與MCU的應(yīng)用場景

    FPGA最大的作用就是來設(shè)計和驗證MCU的,現(xiàn)在想想,這其實只是FPGA的一個用處。這個疑問已經(jīng)我的腦中疑惑很久,有時候可以想明白,但是有時候就又想不通了,所以,最近在仔細(xì)的搜集資料后進行了總結(jié),如有
    發(fā)表于 07-29 15:45

    性能優(yōu)化之路總結(jié)

    思想:批量操作數(shù)據(jù)庫,這個很好理解,我們循環(huán)插入場景的接口中,可以批處理執(zhí)行完成后一次性插入或更新數(shù)據(jù)庫,避免多次IO。 //批量入庫 batchInsert(); 2.異步處理 異步思想:針對耗時比較長且不是結(jié)果必須的邏輯
    的頭像 發(fā)表于 06-17 15:00 ?352次閱讀

    NanoEdge AI的技術(shù)原理、應(yīng)用場景及優(yōu)勢

    硬件設(shè)計則是為了確保設(shè)備執(zhí)行這些任務(wù)時能夠保持低能耗,從而提高其續(xù)航能力。 2、應(yīng)用場景 NanoEdge AI 可以廣泛應(yīng)用于各種物聯(lián)網(wǎng)設(shè)備和傳感器,如智能家居、工業(yè)自動化、智能交通、醫(yī)療健康
    發(fā)表于 03-12 08:09

    Cypress 4025 MCU touch sensor模擬測試下列場景時,遇到sensor無法響應(yīng)的問題怎么解決?

    Cypress 4025 MCU touch sensor模擬測試下列場景時,有遇到sensor 無法響應(yīng)的問題 當(dāng)手指無限接近touch sensor button時,此時手指還未觸模到,發(fā)現(xiàn)
    發(fā)表于 02-01 08:11

    AG32VF-MIPI應(yīng)用場景

    MIPI接口技術(shù)圖像和視頻傳輸中的應(yīng)用越來越廣泛,應(yīng)用場景不斷拓展,而不僅限于移動設(shè)備。MIPI接口物聯(lián)網(wǎng)、智能家居、智能監(jiān)控、智能電視、智能汽車等領(lǐng)域也得到廣泛應(yīng)用。 MI
    發(fā)表于 01-22 08:56

    如何從訓(xùn)練集中生成候選prompt 三種生成候選prompt的方式

    這個“gradient”怎么得到的了呢,這是個啥玩意,怎么還有梯度?注意,注意。人家是帶引號的!比喻成梯度。這玩意有什么用呢。 文章指出給定一批error samples(當(dāng)前prompt無法
    的頭像 發(fā)表于 01-12 11:29 ?1085次閱讀
    如何從訓(xùn)練集中生成候選<b class='flag-5'>prompt</b> 三種生成候選<b class='flag-5'>prompt</b>的方式
    主站蜘蛛池模板: 日韩免费一区| 欧美性爱-第1页| 富婆夜店找黑人猛男BD在线| 综合人妻久久一区二区精品| 亚洲第一页在线播放| 无限资源在线看影院免费观看 | 鸥美一级黄色片| 蜜芽资源高清在线观看| 老熟人老女人国产老太| 久久婷五月综合色啪首页| 九九热在线视频观看这里只有精品| 亚洲视频在线观看| 欧美18videosex初次| 老阿姨儿子一二三区| 久久久中日AB精品综合| 久久久精品3d动漫一区二区三区| 精品高清国产a毛片| 精品国产在线观看福利| 久久99精品视频| 久久综合给会久久狠狠狠| 美女pk精子2小游戏| 果冻传媒AV精品一区| 大肥婆丰满大肥奶bbw肥| 成人永久免费视频| 国产高清精品自在久久| 国产偷抇久久精品A片蜜臀AV| 国产一区二区三区内射高清 | 久久日本片精品AAAAA国产| 久久久免费观看| 欧美极限变态扩张video| 九色PORNY真实丨国产免费| 久久国产精品永久免费网站 | 2021国产精品久久久久精品免费网| 97视频在线观看免费视频| www.日本 高清.com| 69日本人xxxx16—18| jazzjazzjazz欧美| 国产超碰人人爱被IOS解锁| 国产精品资源在线观看网站| 九九热这里只有精品2| 年轻漂亮的妺妺中文字幕版|