色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

自然語言處理頂會NAACL近日公布了本屆會議的最佳論文,谷歌BERT論文獲得最佳長論文

DPVg_AI_era ? 來源:lp ? 2019-04-19 11:35 ? 次閱讀

自然語言處理頂會NAACL近日公布了本屆會議的最佳論文,谷歌BERT論文獲得最佳長論文,可謂名至實歸。

自然語言處理四大頂會之一NAACL2019將于6月2日-7日在美國明尼阿波利斯市舉行。

據官方統計,NAACL2019共收到1955篇論文,接收論文424篇,錄取率僅為22.6%。其中長論文投稿1198篇,短論文757篇。

今天,大會揭曉了本屆會議的最佳論文獎項,包括最佳專題論文、最佳可解釋NLP論文、最佳長論文、最佳短論文和最佳資源論文。

其中,谷歌BERT論文獲得最佳長論文獎項,可謂名至實歸。

最佳長論文:谷歌BERT模型

最佳長論文(Best Long Paper)

BERT:PretrainingofDeepBidirectionalTransformersforLanguageUnderstanding

JacobDevlin,Ming-WeiChang,KentonLeeandKristinaToutanova

https://arxiv.org/abs/1810.04805

谷歌AI團隊在去年10月發布的BERT模型,在機器閱讀理解頂級水平測試SQuAD1.1中表現出驚人的成績:全部兩個衡量指標上全面超越人類!并且還在11種不同NLP測試中創出最佳成績,包括將GLUE基準推至80.4%(絕對改進7.6%),MultiNLI準確度達到86.7%(絕對改進率5.6%)等。

自BERT模型發布以來,許多基于BERT的改進模型不斷在各種NLP任務刷新成績。毫不夸張地說,BERT模型開啟了NLP的新時代!

首先來看下谷歌AI團隊做的這篇論文。

BERT的新語言表示模型,它代表Transformer的雙向編碼器表示。與最近的其他語言表示模型不同,BERT旨在通過聯合調節所有層中的上下文來預先訓練深度雙向表示。因此,預訓練的BERT表示可以通過一個額外的輸出層進行微調,適用于廣泛任務的最先進模型的構建,比如問答任務和語言推理,無需針對具體任務做大幅架構修改。

論文作者認為現有的技術嚴重制約了預訓練表示的能力。其主要局限在于標準語言模型是單向的,這使得在模型的預訓練中可以使用的架構類型很有限。

在論文中,作者通過提出BERT:即Transformer的雙向編碼表示來改進基于架構微調的方法。

BERT提出一種新的預訓練目標:遮蔽語言模型(maskedlanguagemodel,MLM),來克服上文提到的單向性局限。MLM的靈感來自Cloze任務(Taylor,1953)。MLM隨機遮蔽模型輸入中的一些token,目標在于僅基于遮蔽詞的語境來預測其原始詞匯id。

與從左到右的語言模型預訓練不同,MLM目標允許表征融合左右兩側的語境,從而預訓練一個深度雙向Transformer。除了遮蔽語言模型之外,本文作者還引入了一個“下一句預測”(nextsentenceprediction)任務,可以和MLM共同預訓練文本對的表示。

預訓練模型架構的差異。BERT使用雙向Transformer。OpenAIGPT使用從左到右的Transformer。ELMo使用經過獨立訓練的從左到右和從右到左LSTM的串聯來生成下游任務的特征。三個模型中,只有BERT表示在所有層中共同依賴于左右上下文。

參考閱讀:

NLP歷史突破!谷歌BERT模型狂破11項紀錄,全面超越人類!

最佳專題論文:減輕機器學習系統的偏見

最佳專題論文(Best Thematic Paper)

What’sinaName?ReducingBiasinBiosWithoutAccesstoProtectedAttributes

AlexeyRomanov,MariaDeArteaga,HannaWallach,JenniferChayes,ChristianBorgs,AlexandraChouldechova,SahinGeyik,KrishnaramKenthapadi,AnnaRumshiskyandAdamKalai

https://128.84.21.199/abs/1904.05233

越來越多的研究提出了減輕機器學習系統偏見的方法。這些方法通常依賴于對受保護屬性(如種族、性別或年齡)的可用性。

然而,這提出了兩個重要的挑戰:

(1)受保護的屬性可能不可用,或者使用它們可能不合法;

(2)通常需要同時考慮多個受保護的屬性及其交集。

在減輕職業分類偏見的背景下,我們提出了一種方法,用于阻隔個人真實職業的預測概率與他們名字的單詞嵌入之間的相關性。

這種方法利用了詞嵌入中編碼的社會偏見,從而無需訪問受保護屬性。最重要的是,這種方法只要求在訓練時訪問個人姓名,而不是在部署時。

我們使用了一個大規模的在線傳記數據集來評估我們提出的方法的兩種變體。我們發現,這兩種變體同時減少了種族和性別偏見,而分類器的總體真實陽性率幾乎沒有降低。

最佳可解釋NLP論文:用量子物理的數學框架建模人類語言

最佳可解釋NLP論文 (Best Explainable NLP Paper)

CNM:AnInterpretableComplex-valuedNetworkforMatching

QiuchiLi,BenyouWangandMassimoMelucci

https://128.84.21.199/abs/1904.05298

本文試圖用量子物理的數學框架對人類語言進行建模。

這個框架利用了量子物理中精心設計的數學公式,將不同的語言單元統一在一個復值向量空間中,例如,將單詞作為量子態的粒子,句子作為混合系統。我們構建了一個復值網絡來實現該框架的語義匹配。

由于具有良好約束的復值組件,網絡允許對顯式物理意義進行解釋。所提出的復值匹配網絡(complex-valuednetworkformatching,CNM)在兩個基準問題回答(QA)數據集上具有與強大的CNN和RNN基線相當的性能。

最佳短論文:視覺模態對機器翻譯的作用

最佳短論文(Best Short Paper)

Probing the Need for Visual Context in Multimodal Machine Translation

OzanCaglayan,PranavaMadhyastha,LuciaSpeciaandLo?cBarrault

https://arxiv.org/abs/1903.08678

目前關于多模態機器翻譯(MMT)的研究表明,視覺模態要么是不必要的,要么僅僅是有幫助的。

我們假設這是在任務的惟一可用數據集(Multi30K)中使用的非常簡單、簡短和重復的語句的結果,其中源文本被呈現為上下文。

然而,在一般情況下,我們認為可以將視覺信息和文本信息結合起來進行實際的翻譯。

在本文中,我們通過系統的分析探討了視覺模態對最先進的MMT模型的貢獻。我們的結果表明,在有限的文本上下文中,模型能夠利用視覺輸入生成更好的翻譯。這與當前的觀點相矛盾,即要么是因為圖像特征的質量,要么是因為它們集成到模型中的方式,MMT模型忽視了視覺模態。

最佳資源論文:常識性問答的新數據集

最佳資源論文(Best Resource Paper)

CommonsenseQA:AQuestionAnsweringChallengeTargetingCommonsenseKnowledge

AlonTalmor,JonathanHerzig,NicholasLourieandJonathanBerant

https://arxiv.org/abs/1811.00937

在回答一個問題時,除了特定的上下文外,人們往往會利用他們豐富的世界知識。

最近的工作主要集中在回答一些有關文件或背景的問題,很少需要一般常識背景。

為了研究基于先驗知識的問答任務,我們提出了CommonsenseQA:一個具有挑戰性的用于常識性問答的新數據集。

為了獲取超出關聯之外的常識,我們從ConceptNet(Speeretal.,2017)中提取了與單個源概念具有相同語義關系的多個目標概念。參與者被要求撰寫多項選擇題,其中要提到源概念,并依次區分每個目標概念。這鼓勵參與人員創建具有復雜語義的問題,這些問題通常需要先驗知識。

我們通過這個過程創建了12247個問題,并用大量強大的基線說明了我們任務的難度。我們最好的基線是基于BERT-large(Devlinetal.,2018)的,獲得56%的準確率,遠低于人類表現,即89%的準確度。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 谷歌
    +關注

    關注

    27

    文章

    6171

    瀏覽量

    105494
  • 語言模型
    +關注

    關注

    0

    文章

    527

    瀏覽量

    10287
  • 自然語言處理

    關注

    1

    文章

    618

    瀏覽量

    13573

原文標題:自然語言處理頂會NAACL最佳論文出爐!谷歌BERT名至實歸獲最佳長論文

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的一個核心領域,它使計算機能夠從數據中學習并做出預測或決策。自然語言處理與機器學習之間有著密切的關系,因為機器學習提供一種強大的工具,用于從大量文本數據中提取模式和知識,從而提高NLP系
    的頭像 發表于 12-05 15:21 ?515次閱讀

    ASR與自然語言處理的結合

    ASR(Automatic Speech Recognition,自動語音識別)與自然語言處理(NLP)是人工智能領域的兩個重要分支,它們在許多應用中緊密結合,共同構成了自然語言理解和生成的技術體系
    的頭像 發表于 11-18 15:19 ?434次閱讀

    自然語言處理與機器學習的區別

    在人工智能的快速發展中,自然語言處理(NLP)和機器學習(ML)成為了兩個核心的研究領域。它們都致力于解決復雜的問題,但側重點和應用場景有所不同。 1. 自然語言處理(NLP) 定義:
    的頭像 發表于 11-11 10:35 ?611次閱讀

    經緯恒潤功能安全AI 智能體論文成功入選EMNLP 2024!

    :AnAdvancedLLM-BasedMulti-AgentforIntelligentFunctionalSafetyEngineering》成功入選EMNLP2024產業應用分會(IndustryTrack)。EMNLP作為自然語言處理領域的高規格
    的頭像 發表于 10-18 08:00 ?355次閱讀
    經緯恒潤功能安全AI 智能體<b class='flag-5'>論文</b>成功入選EMNLP 2024!

    中科馭數聯合處理器芯片全國重點實驗室獲得“CCF芯片大會最佳論文獎”

    Accelerator on FPGA with Graph Reordering Engine》獲得“CCF芯片大會最佳論文獎”。該項工作由鄢貴海研究員指導完成,論文第一作者是博士
    的頭像 發表于 08-02 11:09 ?617次閱讀

    地平線科研論文入選國際計算機視覺ECCV 2024

    近日,地平線兩篇論文入選國際計算機視覺ECCV 2024,自動駕駛算法技術再有新突破。
    的頭像 發表于 07-27 11:10 ?932次閱讀
    地平線科研<b class='flag-5'>論文</b>入選國際計算機視覺<b class='flag-5'>頂</b><b class='flag-5'>會</b>ECCV 2024

    谷歌DeepMind被曝抄襲開源成果,論文還中了會議

    谷歌DeepMind一篇中了流新生代會議CoLM 2024的論文被掛了,瓜主直指其抄襲一年前就掛在arXiv上的一項研究。開源的那種。
    的頭像 發表于 07-16 18:29 ?599次閱讀
    <b class='flag-5'>谷歌</b>DeepMind被曝抄襲開源成果,<b class='flag-5'>論文</b>還中了<b class='flag-5'>頂</b>流<b class='flag-5'>會議</b>

    用于自然語言處理的神經網絡有哪些

    取得了顯著進展,成為處理自然語言任務的主要工具。本文將詳細介紹幾種常用于NLP的神經網絡模型,包括遞歸神經網絡(RNN)、長短時記憶網絡(LSTM)、卷積神經網絡(CNN)、變換器(Transformer)以及預訓練模型如BERT
    的頭像 發表于 07-03 16:17 ?1270次閱讀

    自然語言處理技術有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個分支,它致力于使計算機能夠理解、解釋和生成人類語言自然語言
    的頭像 發表于 07-03 14:30 ?1190次閱讀

    自然語言處理模式的優點

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它致力于使計算機能夠理解、生成和處理人類語言。隨著技術的發展,
    的頭像 發表于 07-03 14:24 ?802次閱讀

    自然語言處理是什么技術的一種應用

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的一個分支,它涉及到使用計算機技術來處理、分析和生成
    的頭像 發表于 07-03 14:18 ?974次閱讀

    自然語言處理包括哪些內容

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它涉及到計算機與人類語言之間的交互。NLP的目標是讓計算機能夠理解、生成和處理
    的頭像 發表于 07-03 14:15 ?954次閱讀

    什么是自然語言處理 (NLP)

    自然語言處理(Natural Language Processing, NLP)是人工智能領域中的一個重要分支,它專注于構建能夠理解和生成人類語言的計算機系統。NLP的目標是使計算機能夠像人類一樣
    的頭像 發表于 07-02 18:16 ?1206次閱讀

    自然語言處理技術的原理的應用

    自然語言處理(Natural Language Processing, NLP)作為人工智能(AI)領域的一個重要分支,旨在使計算機能夠理解和處理人類自然語言。隨著互聯網的普及和大數據
    的頭像 發表于 07-02 12:50 ?540次閱讀

    神經網絡在自然語言處理中的應用

    自然語言處理(NLP)是人工智能領域中的一個重要分支,它研究的是如何使計算機能夠理解和生成人類自然語言。隨著人工智能技術的飛速發展,神經網絡在自然語言
    的頭像 發表于 07-01 14:09 ?524次閱讀
    主站蜘蛛池模板: 久久精品99国产精品日本| 欧美高清vivoesosexo18| 久久精品国产亚洲AV影院| 日日噜噜噜噜夜夜爽亚洲精品| 嗯啊…跟校草在教室里做h| 亚洲精品沙发午睡系列| 国产69TV精品久久久久99| 欧美日韩看看2015永久免费| 她也色在线视频站| 大香伊人久久| 精品欧美一区二区三区四区| 无限好资源免费观看| 打卡中国各地奋斗第一线| 日本高清无吗| 超碰在线视频地址| 色噜噜2017最新综合| 古代荡女丫鬟高H辣文纯肉| 日韩爽爽影院在线播放| 在线 国产 欧美 专区| 久久偷拍免费2017| 2020亚洲 欧美 国产 日韩| 男gv纯肉免费视频| www亚洲欲色成人久久精品| 琪琪伦伦影院理论片| 月夜直播免费看| 美女脱三角裤| jlzzzjizzzjlzzz亚洲| 日本护士喷水| 国产精品玖玖玖影院| 性xxx免费| 久草在线草a免费线看| 最新国产在线视频在线| 暖暖视频免费观看社区| 成人免费在线观看视频| 天龙八部慕容属性加点| 狠狠色丁香久久婷婷综合_中| 色噜噜狠狠色综合中文字幕| 国产精品-区区久久久狼| 亚洲欧美国产综合在线一区| 久久热在线视频精品| jiapanese50欧美熟妇|