色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

BERT是一種用于自然語言處理的先進神經網絡方法

倩倩 ? 來源:互聯(lián)網分析沙龍 ? 作者:互聯(lián)網分析沙龍 ? 2020-12-13 10:08 ? 次閱讀

在一篇新論文中,F(xiàn)rankle及其同事發(fā)現(xiàn)了潛伏在BERT中的此類子網,BERT是一種用于自然語言處理(NLP)的先進神經網絡方法。作為人工智能的一個分支,NLP旨在通過預測文本生成或在線聊天機器人等應用程序來解密和分析人類語言。在計算方面,BERT體積龐大,通常需要大多數(shù)用戶無法獲得的超級計算能力。從而可能使更多用戶在智能手機上開發(fā)有效的NLP工具。

弗蘭克勒說:“我們正在達到必須使這些模型更精簡,更高效的地步。”他補充說,這一進步有一天可能會“減少NLP的準入門檻”。

麻省理工學院計算機科學與人工智能實驗室的邁克爾·卡賓小組的博士生Frankle是該研究的共同作者,該研究將于下個月在神經信息處理系統(tǒng)會議上發(fā)表。德克薩斯大學奧斯汀分校的陳天龍是該論文的主要作者,其中包括得克薩斯州A&M的合作者Wang Zhangyang Wang,以及所有MIT-IBM Watson AI Lab的常石宇,劉思佳和張揚。

您今天可能已經與BERT網絡進行了互動。這是Google搜索引擎的基礎技術之一,自Google于2018年發(fā)布BERT以來,它一直引起研究人員的興奮。BERT是一種創(chuàng)建神經網絡的方法-使用分層節(jié)點或“神經元”的算法來學習執(zhí)行通過培訓大量實例來完成一項任務。

BERT是通過反復嘗試填寫寫作段落中遺漏的單詞來進行訓練的,它的功能在于此初始訓練數(shù)據(jù)集的龐大大小。然后,用戶可以將BERT的神經網絡微調至特定任務,例如構建客戶服務聊天機器人。但是爭吵的BERT需要大量的處理能力。

弗蘭克爾說:“如今,標準的BERT模型-園林品種-具有3.4億個參數(shù),”他補充說,這個數(shù)字可以達到10億。對如此龐大的網絡進行微調可能需要一臺超級計算機。“這簡直太貴了。這遠遠超出了您或我的計算能力。”

為了削減計算成本,Chen和他的同事試圖找出隱藏在BERT中的較小模型。他們通過迭代修剪整個BERT網絡的參數(shù)進行了實驗,然后將新子網的性能與原始BERT模型的性能進行了比較。他們對一系列NLP任務進行了此比較,從回答問題到填充句子中的空白詞。

責任編輯:lq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關推薦

    卷積神經網絡自然語言處理中的應用

    自然語言處理是人工智能領域的個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發(fā)展,卷積神經網絡(CNNs)作為
    的頭像 發(fā)表于 11-15 14:58 ?321次閱讀

    循環(huán)神經網絡自然語言處理中的應用

    自然語言處理(NLP)是人工智能領域的個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發(fā)展,循環(huán)神經網絡(RN
    的頭像 發(fā)表于 11-15 09:41 ?327次閱讀

    使用LSTM神經網絡處理自然語言處理任務

    自然語言處理(NLP)是人工智能領域的個重要分支,它旨在使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發(fā)展,特別是循環(huán)神經網絡
    的頭像 發(fā)表于 11-13 09:56 ?466次閱讀

    自然語言處理前饋網絡綜述

    自然語言處理(NLP)前饋網絡是人工智能和語言學領域的個重要交叉學科,旨在通過計算機模型理解和處理
    的頭像 發(fā)表于 07-12 10:10 ?354次閱讀

    怎么對神經網絡重新訓練

    重新訓練神經網絡個復雜的過程,涉及到多個步驟和考慮因素。 引言 神經網絡一種強大的機器學習模型,廣泛應用于圖像識別、
    的頭像 發(fā)表于 07-11 10:25 ?501次閱讀

    遞歸神經網絡的實現(xiàn)方法

    (Recurrent Neural Network,通常也簡稱為RNN,但在此處為區(qū)分,我們將循環(huán)神經網絡稱為Recurrent RNN)不同,遞歸神經網絡更側重于處理樹狀或圖結構的數(shù)據(jù),如句法分析樹、
    的頭像 發(fā)表于 07-10 17:02 ?364次閱讀

    基于神經網絡語言模型有哪些

    基于神經網絡語言模型(Neural Language Models, NLMs)是現(xiàn)代自然語言處理(NLP)領域的個重要組成部分,它們通
    的頭像 發(fā)表于 07-10 11:15 ?829次閱讀

    前饋神經網絡自然語言處理中的應用

    自然語言處理(Natural Language Processing, NLP)作為人工智能領域的個重要分支,旨在讓計算機能夠理解和處理人類語言
    的頭像 發(fā)表于 07-08 17:00 ?413次閱讀

    RNN神經網絡用于什么

    RNN(Recurrent Neural Network,循環(huán)神經網絡)是一種具有循環(huán)結構的神經網絡,它可以處理序列數(shù)據(jù),具有記憶功能。RNN在許多領域都有廣泛的應用,以下是
    的頭像 發(fā)表于 07-04 15:04 ?1046次閱讀

    遞歸神經網絡主要應用于哪種類型數(shù)據(jù)

    遞歸神經網絡(Recurrent Neural Network,簡稱RNN)是一種具有循環(huán)結構的神經網絡,能夠處理序列數(shù)據(jù)。它在許多領域都有廣泛的應用,以下是對遞歸
    的頭像 發(fā)表于 07-04 14:58 ?873次閱讀

    循環(huán)神經網絡的應用場景有哪些

    循環(huán)神經網絡(Recurrent Neural Network,簡稱RNN)是一種具有記憶功能的神經網絡,能夠處理序列數(shù)據(jù),廣泛應用于
    的頭像 發(fā)表于 07-04 14:39 ?1600次閱讀

    用于自然語言處理神經網絡有哪些

    取得了顯著進展,成為處理自然語言任務的主要工具。本文將詳細介紹幾種常用于NLP的神經網絡模型,包括遞歸神經網絡(RNN)、長短時記憶
    的頭像 發(fā)表于 07-03 16:17 ?1361次閱讀

    自然語言處理是什么技術的一種應用

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的個分支,它涉及到使用計算機技術來處理
    的頭像 發(fā)表于 07-03 14:18 ?1089次閱讀

    卷積神經網絡的原理是什么

    卷積神經網絡(Convolutional Neural Network,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、語音識別、自然語言處理
    的頭像 發(fā)表于 07-02 14:44 ?758次閱讀

    神經網絡自然語言處理中的應用

    自然語言處理(NLP)是人工智能領域中的個重要分支,它研究的是如何使計算機能夠理解和生成人類自然語言。隨著人工智能技術的飛速發(fā)展,神經網絡
    的頭像 發(fā)表于 07-01 14:09 ?564次閱讀
    主站蜘蛛池模板: 第四色男人天堂| 丰满老熟好大bbbxxx| 国产成人mv 在线播放| 亚洲AV怡红院影院怡春院| 大胸美女裸身色诱网站| 欧美日韩高清一区| write as 跳蛋| 日本十八禁无遮拦啪啪漫画| 成人伦理影院| 久草在线福利资站免费视频| 亚洲视频91| 久久99精品久久久久久园产越南| 亚洲精品偷拍影视在线观看| 韩国无遮羞禁动漫在线观看 | 国产午夜精品AV一区二区麻豆 | 欧美熟妇互舔20p| www.av天堂网.com| 日韩欧美视频一区| 国产精品色无码AV在线观看| 亚洲国产av| 久久久久久久久女黄9999| 2022一本久道久久综合狂躁| 欧美123区| 钉钉女老师| 亚洲国产韩国欧美在线不卡 | 国产主播福利一区二区| 欧美写真视频一区| 被六个男人躁到一夜同性| 失禁 调教 刺激 哭喊男男| 国产亚洲日韩另类在线播放| 色欲AV无码乱码精品国产| 国产欧美日韩中文视频在线| 亚洲一级电影| 嫩草影院成人| 中文字幕一区二区三区在线不卡 | 国产精品人妻在线观看 | 亚洲视频中文字幕在线| 美女脱了内裤张开腿让男人爽| 超碰高清熟女一区二区| 亚洲第一天堂无码专区| 免费人成视频19674不收费|