色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OpenAI推出了一種自然語言處理模型

電子工程師 ? 來源:lq ? 2019-04-29 18:16 ? 次閱讀

幾個月前,OpenAI推出了一種自然語言處理模型,能夠從維基百科以及亞馬遜產品評價中生產連貫的文本段落。

最近,其開放的OpenAI Five 人工智能系統在全網公開賽中放出了驕人戰績——擊敗了99.4%的玩家。在和3萬多名人類玩家的對壘中,只輸了42場。

OpenAI的大招還不止如此。今日凌晨,OpenAI發博文表示,在這些和其他研究的基礎上,他們開發了一種深度神經網絡稀疏 Transformer(Sparse Transformer),可以實現生成式模型,在文本、圖像、聲音等序列預測上都創造了新紀錄。并且可預測的序列長度比之前可能的長度長了30倍。

“人工智能研究的一個現有挑戰是如何對復雜數據中遠距離,且較精細的相互依賴性進行建模,”OpenAI技術人員Rewon Child和軟件工程師Scott Gray在博客文章中寫道。“過去,在這些數據上使用的模型往往只是針對一個域專門設計的,或者是很難擴展到超過幾千個元素的序列。相比之下,我們的模型可以使用上百層對有上萬元素的序列進行建模,并且在多個域中實現最先進的性能。

這次稀疏 Transformer 研究的基礎源于17年Google Brain設計的一種新型的網絡結構,即《Attention Is All You Need》中提出的Transformer。不使用 RNN、CNN 模型,只使用 attention 機制構成的解碼編碼結構就達到了很好的效果。為谷歌團隊于前年 6 月所提出的 NLP 經典之作,同時被 2017 NIPS 接收(2017 錄取率約 20 %),引用次數已達1566次,并還在持續增加中。

與所有深度神經網絡一樣, Transformer包含排列在互連層中的神經元(本質用數學函數模擬生物神經元),這些層從輸入數據傳入“信號”,并緩慢調整每個連接的權重。這是模型如何提取特征并學習以及如何進行預測的關鍵點。在 Transformer 中,每個輸出元素與每個輸入元素都相連,它們之間的權重是動態計算出來的,而過程稱為注意力。

上圖:用稀疏 Tansformer 重計算(recomputaing)注意力矩陣前后的內存使用情況。

注意力機制通常需要為每個層和每個所謂的注意頭創建一個注意力矩陣,從計算的角度來看這不是特別有效。例如,包含24,000個樣本的2秒音頻片段或64低分辨率圖像的語料庫可能分別占用590GB和154GB內存,而這遠遠高于用于訓練AI模型的GPU的負載。

OpenAI的方法通過重新計算矩陣來最小化內存使用量,上面描述的590GB的內存需求在重新計算后僅需9.2GB;154GB可壓縮到2.4GB。于是,實際上最大的內存開銷就變得與層數無關了,因此就允許所述模型進行“非常深”的深度來進行訓練。

由于單個注意力矩陣對于龐大的數據量輸入并不是特別實用,因此本文提出的深度神經網絡實現了稀疏注意力模式,其中每個輸出僅從輸入子集計算權重,對于跨越較大子集的神經元層,通過矩陣因子分解來轉換矩陣,他們認為這是保持神經網絡層學習數據模式能力所必需的一步。

上圖:使用稀疏Transformer生成圖像

通常,實現稀疏注意力需要將查詢和關鍵矩陣進行“切片”,因此為了簡化實驗,OpenAI 實現了一組塊稀疏核,這些核在 GPU 上高效地執行這些操作。另外,OpenAI開源了這些內核,并在Github上提供示例稀疏注意函數。

https://github.com/openai/sparse_attention

根據OpenAI的博客介紹到,即使經過改進,自回歸序列生成對于非常高分辨率的圖像或視頻來說仍然是不切實際的。不過,提出的優化注意力操作可能是一次有益的探索,可以和其他(如多尺度方法)方法相結合來對高維數據進行建模。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 建模
    +關注

    關注

    1

    文章

    309

    瀏覽量

    60784
  • 人工智能
    +關注

    關注

    1792

    文章

    47377

    瀏覽量

    238878
  • 自然語言處理

    關注

    1

    文章

    619

    瀏覽量

    13579

原文標題:OpenAI提出稀疏Transformer模型:文本、圖像、聲音一網打盡,將可預測序列長度提高30倍

文章出處:【微信號:BigDataDigest,微信公眾號:大數據文摘】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    如何優化自然語言處理模型的性能

    優化自然語言處理(NLP)模型的性能是個多方面的任務,涉及數據預處理、特征工程、模型選擇、
    的頭像 發表于 12-05 15:30 ?515次閱讀

    自然語言處理與機器學習的關系 自然語言處理的基本概念及步驟

    Learning,簡稱ML)是人工智能的個核心領域,它使計算機能夠從數據中學習并做出預測或決策。自然語言處理與機器學習之間有著密切的關系,因為機器學習提供了一種強大的工具,用于從大
    的頭像 發表于 12-05 15:21 ?522次閱讀

    ASR與自然語言處理的結合

    。以下是對ASR與自然語言處理結合的分析: 、ASR與NLP的基本概念 ASR(自動語音識別) : 專注于將人類的語音轉換為文字。 涉及從聲音信號中提取特征,并將這些特征映射到文本。 NLP(
    的頭像 發表于 11-18 15:19 ?439次閱讀

    圖像識別技術包括自然語言處理

    圖像識別技術與自然語言處理是人工智能領域的兩個重要分支,它們在很多方面有著密切的聯系,但也存在些區別。 、圖像識別技術與自然語言
    的頭像 發表于 07-16 10:54 ?870次閱讀

    nlp自然語言處理模型怎么做

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的個重要分支,它涉及到計算機對人類語言的理解和生成。隨著深度學習技術的發展,NLP領域
    的頭像 發表于 07-05 09:59 ?660次閱讀

    nlp自然語言處理模型有哪些

    自然語言處理(Natural Language Processing,NLP)是計算機科學和人工智能領域的個重要分支,旨在使計算機能夠理解、解釋和生成人類語言。以下是對NLP領域
    的頭像 發表于 07-05 09:57 ?770次閱讀

    自然語言處理技術有哪些

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的個分支,它致力于使計算機能夠理解、解釋和生成人類語言
    的頭像 發表于 07-03 14:30 ?1196次閱讀

    自然語言處理模式的優點

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的個重要分支,它致力于使計算機能夠理解、生成和處理人類
    的頭像 發表于 07-03 14:24 ?809次閱讀

    自然語言處理技術的核心是什么

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的個重要分支,其核心目標是使計算機能夠理解、生成和處理人類
    的頭像 發表于 07-03 14:20 ?787次閱讀

    自然語言處理是什么技術的一種應用

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能和語言學領域的個分支,它涉及到使用計算機技術來處理
    的頭像 發表于 07-03 14:18 ?981次閱讀

    自然語言處理包括哪些內容

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的個重要分支,它涉及到計算機與人類語言之間的交互。NLP的目標是讓計算機能夠理解、生成
    的頭像 發表于 07-03 14:15 ?971次閱讀

    神經網絡在自然語言處理中的應用

    自然語言處理(NLP)是人工智能領域中的個重要分支,它研究的是如何使計算機能夠理解和生成人類自然語言。隨著人工智能技術的飛速發展,神經網絡在自然語
    的頭像 發表于 07-01 14:09 ?524次閱讀

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    處理各種自然語言任務時都表現出了驚人的能力。這促使個新的研究方向誕生——基于Transformer 的預訓練語言
    發表于 05-05 12:17

    語言模型中的語言與知識:一種神秘的分離現象

    自然語言處理領域存在著個非常有趣的現象:在多語言模型中,不同的語言之間似乎存在著
    發表于 02-20 14:53 ?550次閱讀
    大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>中的<b class='flag-5'>語言</b>與知識:<b class='flag-5'>一種</b>神秘的分離現象

    一種基于自然語言的軌跡修正方法

    本研究提出了ExTraCT框架,利用自然語言進行軌跡校正。該框架結合了大型語言模型(LLMs)用于自然語言理解和軌跡變形函數。ExTraCT
    的頭像 發表于 01-19 10:45 ?460次閱讀
    <b class='flag-5'>一種</b>基于<b class='flag-5'>自然語言</b>的軌跡修正方法
    主站蜘蛛池模板: 高hnp肉文| 男人J进女人P| 翁熄性放纵交换01| 国产一区二区波多野结衣| 亚洲一区在线观看视频| 久热人人综合人人九九精品视频| 97精品少妇偷拍AV| 乳欲性高清在线| 好紧好湿太硬了我太爽了小说| 一区一区三区产品| 欧美牲交视频免费观看K8经典| 国产精品高清在线观看93| 野花4在线观看| 青青草色青伊人| 好大太快了快插穿子宫了| 99re6久久热在线视频| 小黄文污到你湿| 免费可以看黄的视频s色| 国产成人刺激视频在线观看| 影音先锋男人av橹橹色| 日韩欧美一级| 浪小辉军警服务员VIDEOS| 国产成人女人视频在线观看| 在线播放性xxx欧美| 双性大乳浪受噗呲噗呲h总| 快播h网站| 国产午夜精AV在线麻豆| bbwvideos欧美老妇| 亚洲女人毛片| 日韩一区二区三区四区区区| 巨大乳hdbbw| 国产午夜亚洲精品理论片八戒 | 又大又硬又爽免费视频| 日本中文字幕伊人成中文字幕| 久久99免费视频| 国产精品1区在线播放| 99视频精品国产免费观看| 亚洲中文字幕日产乱码2020| 泰国淫乐园实录| 秋霞在线看片无码免费| 绿巨人www在线观看|