色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NLP 2019 Highlights 給NLP從業者的一個參考

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:深度學習自然語言 ? 2020-09-25 16:56 ? 次閱讀

自然語言處理專家elvis在medium博客上發表了關于NLP在2019年的亮點總結。對于自然語言處理(NLP)領域而言,2019年是令人印象深刻的一年。在這篇博客文章中,我想重點介紹一些我在2019年遇到的與機器學習和NLP相關的最重要的故事。我將主要關注NLP,但我還將重點介紹一些與AI相關的有趣故事。標題沒有特別的順序。故事可能包括論文,工程工作,年度報告,教育資源的發布等。

論文刊物

ML / NLP創造力與社會

ML / NLP工具和數據集

文章和博客文章

人工智能倫理

ML / NLP教育

Google AI引入了ALBERT,它是BERT 的精簡版本,用于自監督學習上下文語言表示。主要改進是減少冗余并更有效地分配模型的容量。該方法提高了12個NLP任務的最新性能。

Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, Radu Soricut:ALBERT: ALiteBERTforSelf-supervised LearningofLanguageRepresentations.ICLR 2020.

Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. NAACL-HLT (1) 2019: 4171-4186
arxiv.org/abs/1810.0480

機器在比賽中的表現(類似sat的閱讀理解)。隨機猜測的基線得分為25.0。最高分是95.0分。

今年早些時候,NVIDIA的研究人員發表了一篇頗受歡迎的論文(Coined StyleGAN)(arxiv.org/pdf/1812.0494),提出了一種從樣式轉換中采用的GAN替代生成器架構。這是一項后續工作(arxiv.org/pdf/1912.0495),著重于改進,例如重新設計生成器歸一化過程。

Tero Karras, Samuli Laine, Timo Aila:A Style-Based Generator Architecture for Generative Adversarial Networks. CVPR 2019: 4401-4410

Tero Karras, Samuli Laine, Miika Aittala, Janne Hellsten, Jaakko Lehtinen, Timo Aila:Analyzing and Improving the Image Quality of StyleGAN. CoRR abs/1912.04958 (2019)

上排顯示目標圖像,下排顯示合成圖像

我今年最喜歡的論文之一是code2seq(code2seq.org/),它是一種從結構化代碼表示中生成自然語言序列的方法。這樣的研究可以讓位于諸如自動代碼摘要和文檔之類的應用程序。

Uri Alon, Shaked Brody, Omer Levy, Eran Yahav:code2seq: Generating Sequences from Structured Representations of Code. ICLR (Poster) 2019

有沒有想過是否有可能為生物醫學文本挖掘訓練生物醫學語言模型?答案是BioBERT(arxiv.org/abs/1901.0874),這是一種從生物醫學文獻中提取重要信息的情境化方法。

Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, Jaewoo Kang:BioBERT: a pre-trained biomedical language representation model for biomedical text mining. CoRR abs/1901.08746 (2019)

BERT發布后,Facebook研究人員發布了RoBERTa,該版本引入了新的優化方法來改進BERT,并在各種NLP基準上產生了最新的結果。(ai.facebook.com/blog/-t)

Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov:RoBERTa: A Robustly Optimized BERT Pretraining Approach. CoRR abs/1907.11692 (2019)

來自Facebook AI的研究人員最近還發布了一種基于全注意力關注層的方法,用于提高Transformer語言模型的效率。從這個研究小組更多的工作包括方法來教如何使用自然語言規劃的AI系統。

Sainbayar Sukhbaatar, Edouard Grave, Piotr Bojanowski, Armand Joulin:Adaptive Attention Span in Transformers. ACL (1) 2019: 331-335

可解釋性仍然是機器學習和NLP中的重要主題。集大成者!可解釋人工智能(XAI)研究最新進展萬字綜述論文: 概念體系機遇和挑戰—構建負責任的人工智能

Alejandro Barredo Arrieta, Natalia Díaz Rodríguez, Javier Del Ser, Adrien Bennetot, Siham Tabik, Alberto Barbado, Salvador García, Sergio Gil-Lopez, Daniel Molina, Richard Benjamins, Raja Chatila, Francisco Herrera:Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI.CoRR abs/1910.10045 (2019)

Sebastian Ruder發表了有關自然語言處理的神經遷移學習的論文

(ruder.io/thesis/)。

Ruder2019Neural,Neural Transfer Learning for Natural Language Processing, Ruder, Sebastian,2019,National University of Ireland, Galway

一些研究人員開發了一種在對話中進行情感識別的方法(arxiv.org/abs/1910.0498),可以為情感對話的產生鋪平道路。另一個相關的工作涉及一種稱為DialogueGCN(aclweb.org/anthology/D1)的GNN方法,以檢測對話中的情緒。該研究論文還提供了代碼實現。

Devamanyu Hazarika, Soujanya Poria, Roger Zimmermann, Rada Mihalcea:Emotion Recognition in Conversations with Transfer Learning from Generative Conversation Modeling.CoRR abs/1910.04980 (2019)

Deepanway Ghosal, Navonil Majumder, Soujanya Poria, Niyati Chhaya, Alexander F. Gelbukh:DialogueGCN: A Graph Convolutional Neural Network for Emotion Recognition in Conversation. EMNLP/IJCNLP (1) 2019: 154-164

Google AI Quantum團隊在《自然》雜志上發表了一篇論文(nature.com/articles/s41),他們聲稱自己開發了一種量子計算機,其速度比世界上最大的超級計算機還要快。在此處詳細了解他們的實驗。

Arute, F., Arya, K., Babbush, R. et al.Quantum supremacy using a programmable superconducting processor.Nature 574, 505–510 (2019) doi:10.1038/s41586-019-1666-5

如前所述,神經網絡體系結構需要大量改進的領域之一是可解釋性。本論文(arxiv.org/abs/1908.0462)探討了在語言模型的上下文explainability一個可靠的方法關注的局限性。

Sarah Wiegreffe, Yuval Pinter:Attention is not not Explanation. EMNLP/IJCNLP (1) 2019: 11-20

神經邏輯機器是一種神經符號網絡體系結構(arxiv.org/abs/1904.1169),能夠很好地在歸納學習和邏輯推理方面做得很好。該模型在諸如排序數組和查找最短路徑之類的任務上表現出色。

Honghua Dong, Jiayuan Mao, Tian Lin, Chong Wang, Lihong Li, Denny Zhou:Neural Logic Machines. ICLR (Poster) 2019

神經邏輯機器架構

這是一篇將Transformer語言模型應用于提取和抽象神經類文檔摘要的論文(arxiv.org/abs/1909.0318)。

Sandeep Subramanian, Raymond Li, Jonathan Pilault, Christopher J. Pal:OnExtractiveandAbstractiveNeuralDocumentSummarizationwithTransformerLanguageModels.CoRRabs/1909.03186 (2019)

研究人員開發了一種方法,側重于使用比較來建立和訓練ML模型。這種技術不需要大量的特征標簽對,而是將圖像與以前看到的圖像進行比較,以確定圖像是否屬于某個特定的標簽。

blog.ml.cmu.edu/2019/03

Nelson Liu等人發表了一篇論文,討論了預先訓練的語境設定者(如BERT和ELMo)獲取的語言知識的類型。

arxiv.org/abs/1903.0885

Nelson F. Liu, Matt Gardner, Yonatan Belinkov, Matthew E. Peters, Noah A. Smith:Linguistic Knowledge and Transferability of Contextual Representations. NAACL-HLT (1) 2019: 1073-1094

XLNet是NLP的一種前訓練方法,它在20個任務上都比BERT有改進。我寫了一個總結,這偉大的工作在這里。

arxiv.org/abs/1906.0823

Zhilin Yang, Zihang Dai, Yiming Yang, Jaime G. Carbonell, Ruslan Salakhutdinov, Quoc V. Le:XLNet: Generalized Autoregressive Pretraining for Language Understanding. CoRR abs/1906.08237 (2019)

這項來自DeepMind的工作報告了一項廣泛的實證調查的結果,該調查旨在評估應用于各種任務的語言理解模型。這種廣泛的分析對于更好地理解語言模型所捕獲的內容以提高它們的效率是很重要的。

arxiv.org/abs/1901.1137

Dani Yogatama, Cyprien de Masson d'Autume, Jerome Connor, Tomás Kocisky, Mike Chrzanowski, Lingpeng Kong, Angeliki Lazaridou, Wang Ling, Lei Yu, Chris Dyer, Phil Blunsom:Learning and Evaluating General Linguistic Intelligence. CoRR abs/1901.11373 (2019)

VisualBERT是一個簡單而健壯的框架,用于建模視覺和語言任務,包括VQA和Flickr30K等。這種方法利用了一組Transformer層,并結合了self-attention來對齊文本中的元素和圖像中的區域。

arxiv.org/abs/1908.0355

Liunian Harold Li, Mark Yatskar, Da Yin, Cho-Jui Hsieh, Kai-Wei Chang:VisualBERT: A Simple and Performant Baseline for Vision and Language. CoRR abs/1908.03557 (2019)

這項工作提供了一個詳細的分析比較NLP轉移學習方法和指導NLP的從業者。

arxiv.org/abs/1903.0598

Matthew E. Peters, Sebastian Ruder, Noah A. Smith:To Tune or Not to Tune? Adapting Pretrained Representations to Diverse Tasks.RepL4NLP@ACL 2019: 7-14

Alex Wang和Kyunghyun提出了BERT的實現,能夠產生高質量、流暢的表示。

arxiv.org/abs/1902.0409

Facebook的研究人員發表了XLM的代碼(PyTorch實現),這是一個跨語言模型的預培訓模型。

github.com/facebookrese

本文全面分析了強化學習算法在神經機器翻譯中的應用。

cl.uni-heidelberg.de/st

這篇發表在JAIR上的調查論文對跨語言單詞嵌入模型的培訓、評估和使用進行了全面的概述。

jair.org/index.php/jair

Gradient發表了一篇優秀的文章,詳細闡述了強化學習目前的局限性,并提供了一條潛在的分級強化學習的前進道路。一些人發布了一套優秀的教程來開始強化學習。

thegradient.pub/the-pro

這篇簡要介紹了上下文詞表示。

arxiv.org/abs/1902.0600

責任編輯:xj

原文標題:【前沿】28篇標志性論文見證「自然語言處理NLP」2019->2020年度亮點進展

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 自然語言處理

    關注

    1

    文章

    624

    瀏覽量

    13722
  • nlp
    nlp
    +關注

    關注

    1

    文章

    489

    瀏覽量

    22229

原文標題:【前沿】28篇標志性論文見證「自然語言處理NLP」2019->2020年度亮點進展

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    NLP技術在聊天機器人中的作用

    的第一個作用是幫助聊天機器人理解用戶的意圖。聊天機器人需要能夠識別用戶的問題或請求,并將其轉化為可執行的任務。這涉及到以下幾個步驟: 詞義消歧 :NLP技術可以幫助聊天機器人理解單詞的多種含義,并根據上下文選擇正確的解釋。 意圖識
    的頭像 發表于 11-11 10:33 ?640次閱讀

    大數據從業者必知必會的Hive SQL調優技巧

    大數據從業者必知必會的Hive SQL調優技巧 摘要 :在大數據領域中,Hive SQL被廣泛應用于數據倉庫的數據查詢和分析。然而,由于數據量龐大和復雜的查詢需求,Hive SQL查詢的性能往往
    的頭像 發表于 09-24 13:30 ?414次閱讀

    nlp邏輯層次模型的特點

    NLP(自然語言處理)邏輯層次模型是種用于理解和生成自然語言文本的計算模型。它將自然語言文本分解為不同的層次,以便于計算機更好地處理和理解。以下是對NLP邏輯層次模型特點的分析: 詞匯層次 詞匯
    的頭像 發表于 07-09 10:39 ?527次閱讀

    nlp神經語言和NLP自然語言的區別和聯系

    神經語言(Neuro-Linguistic Programming,NLP) 神經語言是種心理學方法,它研究人類思維、語言和行為之間的關系。NLP的核心理念是,我們可以通過改變我們的思維方式和語言
    的頭像 發表于 07-09 10:35 ?944次閱讀

    nlp自然語言處理基本概念及關鍵技術

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。NLP技術在機器翻譯、情感
    的頭像 發表于 07-09 10:32 ?892次閱讀

    nlp自然語言處理框架有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是計算機科學和人工智能領域的重要分支,它致力于使計算機能夠理解和處理人類語言。隨著技術的發展,NLP
    的頭像 發表于 07-09 10:28 ?710次閱讀

    nlp自然語言處理的主要任務及技術方法

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的分支,它研究如何讓計算機能夠理解、生成和處理人類語言。NLP技術在許多領域
    的頭像 發表于 07-09 10:26 ?1430次閱讀

    nlp自然語言處理模型怎么做

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的重要分支,它涉及到計算機對人類語言的理解和生成。隨著深度學習技術的發展,NLP領域
    的頭像 發表于 07-05 09:59 ?791次閱讀

    nlp自然語言處理模型有哪些

    自然語言處理(Natural Language Processing,NLP)是計算機科學和人工智能領域的重要分支,旨在使計算機能夠理解、解釋和生成人類語言。以下是對NLP領域
    的頭像 發表于 07-05 09:57 ?972次閱讀

    nlp自然語言處理的應用有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的分支,它致力于使計算機能夠理解和生成自然語言。隨著技術的發展,NLP已經在許多領域
    的頭像 發表于 07-05 09:55 ?2983次閱讀

    深度學習與nlp的區別在哪

    深度學習和自然語言處理(NLP)是計算機科學領域中兩非常重要的研究方向。它們之間既有聯系,也有區別。本文將介紹深度學習與NLP的區別。 深度學習簡介 深度學習是種基于人工神經網絡的
    的頭像 發表于 07-05 09:47 ?1187次閱讀

    NLP技術在機器人中的應用

    在人工智能的廣闊領域中,自然語言處理(NLP)技術作為連接人類語言與機器智能的橋梁,正逐漸滲透到我們日常生活的方方面面,其中機器人技術便是尤為突出的應用領域。NLP技術不僅賦予了機
    的頭像 發表于 07-04 16:04 ?677次閱讀

    NLP技術在人工智能領域的重要性

    在自然語言處理(Natural Language Processing, NLP)與人工智能(Artificial Intelligence, AI)的交織發展中,NLP技術作為連接人類語言與機器
    的頭像 發表于 07-04 16:03 ?812次閱讀

    NLP模型中RNN與CNN的選擇

    NLP中的應用場景、工作原理、優缺點,以及在選擇時應考慮的關鍵因素,以期為讀者提供全面而深入的理解。
    的頭像 發表于 07-03 15:59 ?726次閱讀

    什么是自然語言處理 (NLP)

    自然語言處理(Natural Language Processing, NLP)是人工智能領域中的重要分支,它專注于構建能夠理解和生成人類語言的計算機系統。NLP的目標是使計算機能
    的頭像 發表于 07-02 18:16 ?1448次閱讀
    主站蜘蛛池模板: 97免费观看视频 | 老师小扫货水能么多叫出来 | 国产免费内射又粗又爽密桃视频 | 曰本真人00XX动太图 | 中文字幕成人 | 夜里18款禁用的免费B站动漫 | 久色视频网 | 粉嫩无套白浆第一次jk | 农民工老头在出租屋嫖老熟女 | 中文字幕va一区二区三区 | 在线涩涩免费观看国产精品 | 中文字幕亚洲欧美在线视频 | 晚夜免费禁用十大亏亏 | 午夜男人免费福利视频 | 国产精人妻无码一区麻豆 | 美女裸露胸部100%无遮挡 | 蜜芽亚洲欧美一区二区电影 | 尿了么app | 欧美jizz19性欧美 | 日韩视频中文字幕精品偷拍 | 97无码人妻精品1国产精东影业 | 女人把腿张开叫男人桶免费视频 | 色综合精品无码一区二区三区 | 寂寞夜晚免费观看视频 | 极品少妇高潮XXXXX | 色尼玛亚洲综合 | 亚洲国产日韩欧美高清片a 亚洲国产日韩a精品乱码 | 国产三级精品三级男人的天堂 | 99热久久久无码国产精品性麻豆 | 忘忧草高清 | 欧美亚洲另类热图 | 儿子操妈妈| 久久成人精品免费播放 | 成人毛片免费在线观看 | 国产精品私人玩物在线观看 | 不卡无线在一二三区 | 歪歪爽蜜臀AV久久精品人人槡 | 天天澡夜夜澡人人澡 | 久久亚洲免费视频 | 精品无码三级在线观看视频 | 吻嘴胸全身好爽床大全 |