色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OpenAI:用可擴展的多任務系統,在多語言任務上取得了良好的成績

zhKF_jqr_AI ? 來源:未知 ? 作者:李倩 ? 2018-06-30 09:20 ? 次閱讀

編者按:近日,OpenAI在博客上宣布,他們用可擴展的多任務系統,在多語言任務上取得了良好的成績。研究人員結合了transformer和無監督預訓練這兩種現有方法。結果證明,監督學習方法和無監督預訓練結合得非常好。以下是論智對原博文的編譯。

我們的系統工作分為兩個階段:首先,我們在大量數據上訓練一個transformer模型,利用語言建模作為訓練信號,然后在稍小的監督數據集上對模型進行微調,以幫助解決特殊任務。

在此之前我們曾發布了一篇有關“情感神經元”的研究,其中我們注意到無監督學習技術能產生非常明顯的特定。這里,我們想將這一技術進一步拓展:是否能創建一個模型,將其在大量數據上進行無監督訓練,之后再在多種不同任務上進行微調?結果證明,這一方法非常有效。模型只需要微小調整就能適應多種任務。

這項工作建立在論文Semi-supervised Sequence Learning所提出的方法上,它展示了如何用LSTM的無監督預訓練以及監督式的微調提高文本分類的性能。它還擴展了ULMFiT,該研究展示了單一無數據集的LSTM語言模型可以在多種文本分類數據集上微調后達到最優性能。

而我們的研究展示了一個基于Transformer的模型可以通過這種方法做到除了文本分類以外的事,例如常識推理、語義相似度、閱讀理解。它也有點像ELMo,同樣也是加入預訓練,再用特定任務框架得到最優結果。

為了達到我們的結果只需要微調,并且所有數據集只用了一個前向語言模型,沒有任何集成,并且大部分結果用的參數都是相通的。

令人激動的是,我們的方法在COPA、RACE和ROCStories三個數據集上都表現的很好,這三種數據集是用來測試常識推理和閱讀理解的。我們的模型在這些數據集上表現出了頂尖的結果,與其他方法的對比十分明顯。通常人們認為這些數據集需要多語句推理和豐富的知識,這也表明我們的模型只能靠無監督學習提升水準。這也意味著未來也許能通過無監督技術讓模型理解復雜語言。

為什么用無監督學習?

監督學習最近在機器學習的很多方面都取得了成功。然而,成功的背后需要大型、經過清洗的數據集。無監督學習不會有這些問題,也是它受歡迎的原因。由于無監督學習無需人類對數據進行標注,所以在目前計算量增加并且有可用元數據的趨勢下,它仍然適應得很好。無監督學習是很受歡迎的研究領域,但是付諸實踐的卻很少。

最近我們嘗試用無監督學習增強系統,進一步研究語言能力。無監督技術訓練能通過含有巨大信息量的數據庫訓練單詞的表示,與監督學習結合后,模型的性能會進一步提高。最近,這些NLP領域的無監督技術(例如GLoVe和word2vec)利用了簡單模型(詞向量)和訓練信號。Skip-Thought向量是一種是對這種提升的早期展示。但是目前在用的技術讓性能得到了進一步提升。這些都包括了使用預訓練句子的模型表示、語境化的詞向量、用定制架構連接無監督預訓練和監督微調的方法。

在大量文本語料上對模型進行預訓練顯著提高了它在自然語言處理上的表現

我們還注意到,我們可以用基礎的語言模型直接執行任務,不用訓練它們。例如,隨著基礎語言模型的升級,選擇題模型的表現也有了提升。雖然這種方法和監督方法相比結果還是有差距,但是無監督學習方法能在多種任務上執行任務已經很讓人興奮了。

我們還能用模型中現有的語言功能執行情感分析。斯坦福的Sentiment Treebank數據集中包含了許多積極和消極的電影評論,如果在一句話的結尾添加“very”這個詞,我們可以用語言模型猜測評論的屬性。這種方法完全沒用對模型進行適應調整,最終達到了約80%的準確度。

我們的方法也是驗證transformer架構的魯棒性和有用性的標準,這說明想在多種任務上達到頂尖的結果,同時不需要定制化或調參是非常靈活的。

目前存在的缺點

這一項目同時還存在著一些不足之處:

計算需求:此前NLP任務中的許多方法都是從零開始在單個GPU上訓練,模型比較小。我們的方法在預訓練時需要一個月左右的時間,并且要用8個GPU。幸運的是,預訓練只要做一次。不過跟之前的其他工作相比,這算是比較大的計算量和內存了。我們用了一個37層的Transformer架構,訓練了最多有512個token的序列,大多數都是在4個或8個GPU系統上進行的。模型可以快速地針對新問題進行微調,這也減少了額外所需要的資源。

在學習時通過文本對世界的理解有偏差和偏見:網絡上所能看見的書或文字也許不能涵蓋世界所有的信息,也許不準確。最近的研究表明,用文本和通過數據分布建立的模型學習特定的信息很困難。

生成時很脆弱:雖然我們的方法在很多任務中都提高了性能,目前的深度學習NLP模型仍然表現出令人驚訝的反常行為,尤其是系統地進行對抗測試時更加明顯。但是我們的方法在這些測試面前很脆弱,盡管有一些進步。對比之前完全用神經網絡的方法,我們的方法在詞匯魯棒性上更勝一籌。在Glockner等人的數據集上,我們的模型達到了83.75%的方法,和KIM接近。

未來方向

擴展我們的方法:我們看到在語言模型和其相關的模型上已經有了很大提升。目前我們正在用一個8個GPU的機器和含有上千本書的訓練集進行實驗,說明還有很大的擴展空間。

改進微調方法:我們的方法目前很簡潔。也許未來我們會用更加復雜的調整和遷移技術進行改進。

深入了解為什么生成預訓練很有幫助:雖然我們對研究成果做出了解釋,但是只有對比其他實驗和研究才能有更清晰的認知。例如,技術提升后到底有多少好處?

具體案例

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器學習
    +關注

    關注

    66

    文章

    8424

    瀏覽量

    132766
  • 數據集
    +關注

    關注

    4

    文章

    1208

    瀏覽量

    24737

原文標題:OpenAI:無監督訓練加微小調整,只用一個模型即可解決多種NLP任務

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    多語言開發的流程詳解

    現在不少應用都是要求有多語言切換的, 使用QT開發上位機也同樣需要做多語言功能, 不過QT是自帶了多語言翻譯功能, 可以很方便的借助原生工具進行, 下面就簡單來看看多語言開發的流程!
    的頭像 發表于 11-30 09:08 ?1124次閱讀

    setjmp構建簡單協作式多任務系統

    實際應用中,搶中式的多任務某種程序帶來了用戶程序設計時數據保護的困難,并且,具備搶占功能的多任務內核設計時困難也比較多,這會增加操作系統
    發表于 12-07 15:55

    實時多任務操作系統(RTOS)

    策略允許兩個或更多進程并發共享一個處理器時,事實處理器某一時刻只會給一件任務提供服務。因為任務調度機制保證不同任務之間的切換速度十分迅速
    發表于 08-24 06:34

    多任務系統與單任務系統分別是指什么

    多任務與單任務所謂"單任務系統"是指該系統不能支持多任務并發操作,宏觀串行地執行一個
    發表于 12-22 07:20

    多任務編程多任務處理是指什么

    嵌入式Linux應用編程-多任務編程多任務處理是指用戶可在同一時間內運行多個應用程序,每個正在執行的應用程序被稱為一個任務。Linux就是一個支持多任務的操作
    發表于 12-22 08:30

    任務裸機系統多任務系統的區別在哪

    外部事件驅動就能完成的事情前后臺系統輪詢系統的基礎加入了終斷,終端即前臺,無限循環的部分叫后臺多任務
    發表于 02-18 07:03

    多語言綜合信息服務系統研究與設計

    基于多語言的綜合信息服務正成為信息服務領域的一個重要的發展方向。該文提出面向2010年上海世博會和城市信息服務的多語言綜合信息服務應用的總體架構,該系統基于下一代網
    發表于 04-01 09:41 ?24次下載

    SoC多語言協同驗證平臺技術研究

    SoC基于IP設計的特點使驗證項目中多語言VIP(Verification IP)協同驗證的需求不斷增加,給驗證工作帶來了很大的挑戰。為了解決多語言VIPSoC驗證環境靈活重用的問題。提出了一種
    發表于 12-31 09:25 ?12次下載

    OpenAI介紹擴展的,與任務無關的的自然語言處理(NLP)系統

    近日,OpenAI 在其官方博客發文介紹了他們最新的自然語言處理(NLP)系統。這個系統擴展
    的頭像 發表于 06-17 22:20 ?3879次閱讀
    <b class='flag-5'>OpenAI</b>介紹<b class='flag-5'>可</b><b class='flag-5'>擴展</b>的,與<b class='flag-5'>任務</b>無關的的自然<b class='flag-5'>語言</b>處理(NLP)<b class='flag-5'>系統</b>

    多語言翻譯新范式的工作:機器翻譯界的BERT

    思想就是打造“機器翻譯界的BERT”,通過預訓練技術再在具體語種上微調即可達到領先的翻譯效果,其32個語種上預訓練出的統一模型47個翻譯測試集取得了全面顯著的提升。 目錄 機器翻
    的頭像 發表于 03-31 17:24 ?3005次閱讀
    <b class='flag-5'>多語言</b>翻譯新范式的工作:機器翻譯界的BERT

    Multilingual多語言預訓練語言模型的套路

    FacebookCrosslingual language model pretraining(NIPS 2019)一文中提出XLM預訓練多語言模型,整體思路基于BERT,并提出了針對多語言預訓練的3個優化
    的頭像 發表于 05-05 15:23 ?3000次閱讀

    多語言任務在內的多種NLP任務實現

    WeLM是一個百億級別的中文模型,能夠零樣本以及少樣本的情境下完成包括對話-采訪、閱讀理解、翻譯、改寫、續寫、多語言閱讀理解在內的多種NLP任務,并具備記憶能力、自我糾正和檢查能力。
    發表于 10-13 11:52 ?633次閱讀

    Arduino多任務處理

    電子發燒友網站提供《Arduino多任務處理.zip》資料免費下載
    發表于 06-14 11:05 ?0次下載
    Arduino<b class='flag-5'>上</b>的<b class='flag-5'>多任務</b>處理

    基于LLaMA的多語言數學推理大模型

    MathOctopus多語言數學推理任務中,表現出了強大的性能。MathOctopus-7B 可以將LLmMA2-7BMGSM不同語言
    發表于 11-08 10:37 ?487次閱讀
    基于LLaMA的<b class='flag-5'>多語言</b>數學推理大模型

    ChatGPT 的多語言支持特點

    )技術迎來了巨大的挑戰和機遇。ChatGPT,作為一個領先的語言模型,其多語言支持的特點成為了它在眾多應用場景中不可或缺的優勢。 1. 多語言理解能力 ChatGPT 的多語言支持首先
    的頭像 發表于 10-25 17:30 ?816次閱讀
    主站蜘蛛池模板: 国产精品婷婷五月久久久久| 男男女女爽爽爽视频免费| 日韩在线看片中文字幕不卡| 超碰caoporon最新视频| 色老汉网址导航| 国色天香视频在线社区| 在线视频 日韩视频二区| 牛牛在线国产精品| 国产精品99久久久久久WWW| 一二三四视频免费社区5| 男女夜晚在爽视频免费观看| 高挑人妻无奈张开腿| 亚洲日本欧美日韩高观看| 美女大鸡鸡| 国产精品免费观看视频| 最近2018年手机中文字幕| 少妇被阴内射XXXB少妇BB| 簧片高清在线观看| bl撅高扒开臀缝哦| 亚洲精品6久久久久中文字幕 | 穿着丝袜被男生强行啪啪| 亚洲国产精品无码中文字幕| 蜜柚在线观看免费高清官网视频 | 国产精品AV视频一二三区| 野花视频在线观看免费最新动漫| 欧美精品九九99久久在免费线| 国产精品久久久久久人妻香蕉 | 亚洲精品无码国产爽快A片百度| 欧美xxbb| 护士们的母狗| 大迪克黑人异族| 早乙女由依在线观看| 网红刘婷hd国产高清| 免费精品美女久久久久久久久久| 国产午夜精品理论片在线| qvod小电影| 永久免费的无码中文字幕| 少妇精品无码一区二区三区| 看电影就来5566先锋av| 国产真实乱对白精彩| 敌伦小芳的第一次|