色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自然語言處理BERT中CLS的效果如何?

深度學(xué)習(xí)自然語言處理 ? 來源:AI自然語言處理與知識(shí)圖譜 ? 作者:Elesdspline ? 2021-04-04 17:01 ? 次閱讀

要說自然語言處理在18年最?yuàn)Z目閃耀的是什么事情,那當(dāng)屬 BERT 刷新各個(gè)任務(wù)的記錄了,至今已經(jīng)過去了近兩年半的時(shí)間,但其影響力未曾衰減,無論學(xué)術(shù)界還是工業(yè)界,很多的工作與部署都圍繞其展開,對(duì)很多的下游任務(wù)都有舉足輕重的作用,真的是里程碑啊。

相信大家都有過BERT、ALBERT等預(yù)訓(xùn)練語言模型應(yīng)用在自己任務(wù)上的實(shí)踐經(jīng)歷,可能是情感分析、分類、命名實(shí)體識(shí)別、閱讀理解、相似度計(jì)算等等,使用的方法也無非是在自己任務(wù)上 fine-tune 或者作為預(yù)訓(xùn)練Embedding,使用的預(yù)訓(xùn)練模型大多是公開的,大佬們(財(cái)大氣粗、資源無數(shù))訓(xùn)練好的。(有錢真好)

在用預(yù)訓(xùn)練模型的時(shí)候,根據(jù)任務(wù)的不同,用到信息也不同,有的需要是詞表示,比如命名實(shí)體識(shí)別、詞性標(biāo)注等任務(wù),有的需要的是句子表示,比如分類、句子語意匹配等。這里我要說的句子表示這一類的任務(wù),大家經(jīng)常會(huì)用到的 [CLS] 特征信息作為句子向量表示,CLS 作為 BERT/ALBERT序列信息中特殊的一個(gè)存在,在最開始設(shè)計(jì)模型的時(shí)候便考慮將其作為后續(xù)文本分類的表示,然而直接使用 CLS 的效果真的會(huì)滿足我們的預(yù)期嘛?相信大家在實(shí)踐的過程中都有所體會(huì)~,另外 ALBERT 和 BERT 在下游任務(wù)應(yīng)用上面孰好孰壞,是否有一個(gè)定論?

我最近看到了一篇 Arxiv 的文章,題目是 《Evaluation of BERT and ALBERT Sentence Embedding Performance on Downstream NLP Tasks》,這篇文章在 BERT/ALBERT 提取信息作為句子信息表示應(yīng)用在下游任務(wù),對(duì)其效果進(jìn)行了評(píng)測,或許會(huì)解答我們實(shí)踐中的疑惑,也或者會(huì)給我們一些預(yù)訓(xùn)練模型在下游任務(wù)應(yīng)用的啟發(fā),讓我們來看下~

評(píng)測對(duì)比

有一系列的對(duì)比實(shí)驗(yàn),來看在下游任務(wù)上面的效果~

[CLS] embeddings

CLS 通過 Self-Attention 機(jī)制來獲取句子級(jí)別的信息表示,在不同的任務(wù)上 Fine-tune 之后,CLS 會(huì)捕捉特定環(huán)境下的上下文信息表示。

Pooled embeddings

將文本中的所有詞做 Avg-pooling 或者 max-pooling。

Sentence-X(SBERT/ALBERT)

BERT 在語義相似度任務(wù)上面也取得了很不錯(cuò)的效果,然后其內(nèi)部的結(jié)構(gòu)在計(jì)算過程中會(huì)導(dǎo)致非常耗時(shí),不適合做語義相似度匹配任務(wù),特別是在工業(yè)界,BERT 的耗時(shí)無法滿足上線的需要。針對(duì)這個(gè)問題,有人提出 Sentence-BERT,采用孿生網(wǎng)絡(luò)模型框架,將不同的句子輸入到參數(shù)共享的兩個(gè)BERT模型中,獲取句子信息表示,用于語義相似度計(jì)算,最終相比BERT效率大大提升,滿足工業(yè)界線上需要。SBERT 從65小時(shí)降到5秒,具體詳見參考資料2。

99cb1f6c-88e9-11eb-8b86-12bb97331649.png

CNN-SBERT/SALBERT

在上圖中,SBERT 采用 Avg-pooling 獲取句子向量表示,本文將其替換成 CNN 網(wǎng)絡(luò)結(jié)構(gòu)獲取句子向量表示。

99fe6886-88e9-11eb-8b86-12bb97331649.png

結(jié)果分析

評(píng)測任務(wù)

STS:Semantic Textual Similarity

NLI:Natural Language Inference

評(píng)測指標(biāo)

Pearson and Spearman’s rank coefficients(皮爾遜和斯皮爾曼相關(guān)系數(shù))

評(píng)測數(shù)據(jù)

Semantic Textual Similarity benchmark(STSb)

Multi-Genre Natural Language Inference(MultiNLI)

Stanford Natural Language Inference(SNLI)

上面列出來相關(guān)的評(píng)測任務(wù)、評(píng)測指標(biāo)以及評(píng)測所用到的數(shù)據(jù),下面先給出一張結(jié)果表,然后再詳細(xì)分析~

9a3609a8-88e9-11eb-8b86-12bb97331649.png

詳細(xì)分析

微調(diào)有效:這個(gè)是符合我們認(rèn)知的,肯定是微調(diào)的效果要好。

CLS 效果:CLS 的效果要遜色很多,無論是在微調(diào)上面,還是不微調(diào)上面,CLS的效果都要遠(yuǎn)遜色于平均池化操作或者其他方法。

不同方法效果:總體上來看,CNN-BERT > SBERT > Avg pooling > CLS

BERT 與 ALBERT:從上圖中大概能夠看出,不微調(diào)的情況下,兩者的效果差不多,但是微調(diào)之后,ALBERT的效果要比BERT差很多,僅僅在STSb上微調(diào)的時(shí)候,CLS 和平均池化的方法要好于BERT。

CNN的效果

從上圖來看,最好的結(jié)果是采用了 CNN 網(wǎng)絡(luò)結(jié)構(gòu),說明 CNN 起到了正向的作用,仔細(xì)觀察發(fā)現(xiàn),CNN 對(duì) ALBERT 的改進(jìn)要遠(yuǎn)大于對(duì) BERT 的改善提高。ALBERT 由于內(nèi)部參數(shù)共享,可能存在不穩(wěn)定性,CNN 網(wǎng)絡(luò)結(jié)構(gòu)或許可以減緩這種不穩(wěn)定性。

下圖也進(jìn)行了一些對(duì)比,在幾個(gè)不同的數(shù)據(jù)集上驗(yàn)證 CNN 的有效性,從最終的 Avg 結(jié)果來看,CNN 網(wǎng)絡(luò)結(jié)構(gòu)對(duì) ALBERT 有改善提升。

9a91a5e2-88e9-11eb-8b86-12bb97331649.png

以上是根據(jù)實(shí)驗(yàn)結(jié)果進(jìn)行的簡單分析,其中有一些結(jié)論和對(duì)比可以在我們?nèi)粘5膶?shí)踐中借鑒并嘗試,說不定會(huì)有不錯(cuò)的效果~

原文標(biāo)題:【BERT】BERT中CLS效果真的好嘛?這篇文章告訴你答案

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47350

    瀏覽量

    238750
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    288

    瀏覽量

    13355

原文標(biāo)題:【BERT】BERT中CLS效果真的好嘛?這篇文章告訴你答案

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    自然語言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學(xué)領(lǐng)域的一個(gè)分支,它致力于研究如何讓計(jì)算機(jī)能夠理解、解釋和生成人類語言。機(jī)器學(xué)習(xí)(Ma
    的頭像 發(fā)表于 12-05 15:21 ?504次閱讀

    語音識(shí)別與自然語言處理的關(guān)系

    在人工智能的快速發(fā)展,語音識(shí)別和自然語言處理(NLP)成為了兩個(gè)重要的技術(shù)支柱。語音識(shí)別技術(shù)使得機(jī)器能夠理解人類的語音,而自然語言處理則讓
    的頭像 發(fā)表于 11-26 09:21 ?422次閱讀

    ASR與自然語言處理的結(jié)合

    ASR(Automatic Speech Recognition,自動(dòng)語音識(shí)別)與自然語言處理(NLP)是人工智能領(lǐng)域的兩個(gè)重要分支,它們在許多應(yīng)用緊密結(jié)合,共同構(gòu)成了自然語言理解和
    的頭像 發(fā)表于 11-18 15:19 ?428次閱讀

    自然語言處理與機(jī)器學(xué)習(xí)的區(qū)別

    在人工智能的快速發(fā)展自然語言處理(NLP)和機(jī)器學(xué)習(xí)(ML)成為了兩個(gè)核心的研究領(lǐng)域。它們都致力于解決復(fù)雜的問題,但側(cè)重點(diǎn)和應(yīng)用場景有所不同。 1. 自然語言
    的頭像 發(fā)表于 11-11 10:35 ?605次閱讀

    圖像識(shí)別技術(shù)包括自然語言處理

    計(jì)算機(jī)視覺技術(shù)對(duì)圖像進(jìn)行處理、分析和理解,從而實(shí)現(xiàn)對(duì)圖像的目標(biāo)、場景、行為等信息的識(shí)別和理解。圖像識(shí)別技術(shù)包括圖像預(yù)處理、特征提取、分類器設(shè)計(jì)、模型訓(xùn)練等多個(gè)環(huán)節(jié)。 1.2 自然語言
    的頭像 發(fā)表于 07-16 10:54 ?861次閱讀

    用于自然語言處理的神經(jīng)網(wǎng)絡(luò)有哪些

    取得了顯著進(jìn)展,成為處理自然語言任務(wù)的主要工具。本文將詳細(xì)介紹幾種常用于NLP的神經(jīng)網(wǎng)絡(luò)模型,包括遞歸神經(jīng)網(wǎng)絡(luò)(RNN)、長短時(shí)記憶網(wǎng)絡(luò)(LSTM)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、變換器(Transformer)以及預(yù)訓(xùn)練模型如BERT
    的頭像 發(fā)表于 07-03 16:17 ?1263次閱讀

    自然語言處理技術(shù)有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領(lǐng)域的一個(gè)分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言自然語言
    的頭像 發(fā)表于 07-03 14:30 ?1186次閱讀

    自然語言處理模式的優(yōu)點(diǎn)

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它致力于使計(jì)算機(jī)能夠理解、生成和處理人類語言。隨著技術(shù)的發(fā)展,
    的頭像 發(fā)表于 07-03 14:24 ?801次閱讀

    自然語言處理技術(shù)的核心是什么

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,其核心目標(biāo)是使計(jì)算機(jī)能夠理解、生成和處理人類語言。NLP技術(shù)的發(fā)展已經(jīng)取
    的頭像 發(fā)表于 07-03 14:20 ?782次閱讀

    自然語言處理是什么技術(shù)的一種應(yīng)用

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學(xué)領(lǐng)域的一個(gè)分支,它涉及到使用計(jì)算機(jī)技術(shù)來處理、分析和生成
    的頭像 發(fā)表于 07-03 14:18 ?965次閱讀

    自然語言處理包括哪些內(nèi)容

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它涉及到計(jì)算機(jī)與人類語言之間的交互。NLP的目標(biāo)是讓計(jì)算機(jī)能夠理解、生成和處理
    的頭像 發(fā)表于 07-03 14:15 ?939次閱讀

    自然語言處理屬于人工智能的哪個(gè)領(lǐng)域

    之間的交互,旨在使計(jì)算機(jī)能夠理解、生成和處理自然語言自然語言處理:人工智能的皇冠上的明珠 引言 人工智能作為一門跨學(xué)科的研究領(lǐng)域,涵蓋了計(jì)算機(jī)科學(xué)、數(shù)學(xué)、心理學(xué)、
    的頭像 發(fā)表于 07-03 14:09 ?1377次閱讀

    什么是自然語言處理 (NLP)

    自然語言處理(Natural Language Processing, NLP)是人工智能領(lǐng)域中的一個(gè)重要分支,它專注于構(gòu)建能夠理解和生成人類語言的計(jì)算機(jī)系統(tǒng)。NLP的目標(biāo)是使計(jì)算機(jī)能夠像人類一樣
    的頭像 發(fā)表于 07-02 18:16 ?1204次閱讀

    自然語言處理技術(shù)的原理的應(yīng)用

    自然語言處理(Natural Language Processing, NLP)作為人工智能(AI)領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠理解和處理人類自然語言。隨著互聯(lián)網(wǎng)的普及和大數(shù)據(jù)
    的頭像 發(fā)表于 07-02 12:50 ?535次閱讀

    神經(jīng)網(wǎng)絡(luò)在自然語言處理的應(yīng)用

    自然語言處理(NLP)是人工智能領(lǐng)域中的一個(gè)重要分支,它研究的是如何使計(jì)算機(jī)能夠理解和生成人類自然語言。隨著人工智能技術(shù)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)在自然語言
    的頭像 發(fā)表于 07-01 14:09 ?519次閱讀
    主站蜘蛛池模板: 人妻超级精品碰碰在线97视频| 久久天堂视频| 91福利在线观看| 一级做a爰片久久毛片苍井优| 午夜在线播放免费人成无| 日本美女毛茸茸| 欧美精品色视频| 男生互捏jiji的故事| 免费观看成人www精品视频在线| 久久精品黄AA片一区二区三区| 精品国产福利在线视频| 黄瓜视频苹果直接安装| 国产亚洲制服免视频| 国产永久免费高清在线观看| 国产视频精品在线偷拍| 国产人妻XXXX精品HD电影| 国产喷水1区2区3区咪咪爱AV| 国产精品亚洲污污网站入口| 国产精品久久久精品a级小说| 国产成人综合在线视频| 国产精品一区二区四区 | 久久AV亚洲精品一区无码网| 韩国和日本免费不卡在线| 狠狠干.in| 久久午夜伦理| 免费观看成人毛片| 欧美手机在线| 手机在线免费看毛片| 亚洲AV综合99一二三四区| 野花日本韩国视频免费高清观看 | 国产亚洲精品精华液| 黄色亚洲片| 恋夜秀场1234手机视频在线观看| 男人把女人桶到爽免费看视频| 强奷乱码欧妇女中文字幕熟女| 日韩精品特黄毛片免费看| 桃花免费高清在线观看| 亚洲国产在线综合018| 在线不卡中文字幕| chinese极品嫩模videos| 国产1769一七六九视频在线|