色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OpenAI宣布,發布了7.74億參數GPT-2語言模型

DPVg_AI_era ? 來源:lq ? 2019-09-01 09:10 ? 次閱讀

OpenAI號稱史上最強“通用”NLP模型又有新動作啦!繼今年2 月發布了小型1.24億參數模型GPT-2后,OpenAI宣布發布7.74億參數GPT-2 模型,15.58億的完整模型也有望于幾個月內發布。

今年2月,OpenAI發布了號稱史上最強“通用”NLP模型,它基于Transformer,擁有15億參數,使用含有800萬網頁內容的數據集訓練,只為一個目的:

根據當前已有的信息,預測下一個單詞是什么。

新模型的名字叫GPT-2,是OpenAI去年發布的無監督NLP模型GPT的直接拓展,新模型用到的參數和訓練數據,都增長了超過10倍參數數量。

但是OpenAI表示,由于這個新模型過于強大怕被濫用,所以沒有全部開源,遭到網友猛懟。

就在本周,OpenAI宣布,發布了7.74億參數GPT-2語言模型,15.58億的完整模型也有望于幾個月內發布,并將GPT-2這6個月的進展情況在博客上和大家做了介紹,本文將為大家梳理。

OpenAI博客地址:https://openai.com/blog/gpt-2-6-month-follow-up/ GPT-2有多“可怕”?訓練1小時相當于燒掉1臺頂配版X Max

今年2月,OpenAI宣稱他們研究出一個GPT-2的NLP模型,號稱“史上最強通用NLP模型”,因為它是:

踩在15億參數的身體上:爬取了Reddit上點贊超過三票的鏈接的文本內容,大約用到1000萬篇文章,數據體量超過了40G,相當于35000本《白鯨記》。(注:小說約有21萬單詞,是電影《加勒比海盜》的重要故事參考來源之一。動漫《海賊王》里四皇之一的白胡子海賊團的旗艦就是以故事主角大白鯨的名字Moby Dick命名)。

無需預訓練的“zero-shot”:在更通用的數據集基礎上,使用自注意力模塊遷移學習,不針對任何特定任務的數據進行訓練,只是作為最終測試對數據進行評估,在Winograd Schema、LAMBADA以及其他語言建模任務上實現了state-of-the-art 的結果。

最終結果:8個數據集中油7個刷新當前最佳紀錄。

下表顯示了最先進的zero-shot結果。(+)表示該項分數越高越好。(-)表示分數越低越好。

雖然OpenAI沒有在論文中提及具體的計算力及訓練時間,但通過公布的數據推測,他們的模型使用了256個谷歌云TPU v3。

TPU v3在Google之外只提供單獨使用版本(排除OpenAI可能得到了特別的許可),很可能GPT-2訓練時所需的成本將高達8 * 256 = 2048美元/小時,相當于一小時燒掉一臺512G的iPhone Xs Max。

然而,OpenAI并沒有完全公布GPT-2模型及代碼,OpenAI給出的理由是:因為這個模型能力太強大了!他們目前還有點hold不住它。一旦開源后被壞人拿到,將會貽害無窮。有點中國武俠小說里,絕世武功秘籍的意思。

網友吐槽:不公開代碼和訓練集就干脆別發表!

于是開發者和學者們不干了,紛紛質疑OpenAI這種做法顯得心口不一。甚至盛產吐槽大神的Reddit上,有人建議OpenAI干脆改名CloseAI的言論,獲得了數百網友的點贊。

OpenAI干脆改名“CloseAI”算了!

我也做了個超強大的MNIST模型,要不要擔心它被濫用而不公開呢?

更有甚者,比如下面這位Ben Recht,還發了一條Twitter長文進行嘲諷:

對于種種質疑,OpenAI在最新的博客中進行了回應。 OpenAI在對模型的研究和合作測試中總結出3點

在對模型的研究和合作測試中,OpenAI有3點總結: 1.協調合作很困難,但有可能實現。 到目前為止,我們還沒有公開發布15.58億參數的完整模型,不過已經有不少組織開發了系統來訓練模型,并公開討論如何訓練更大的模型。比如來自華盛頓大學的NLP開發人員Hugging Face和艾倫人工智能研究所(AI2)的團隊已明確采用了類似的分階段發布方法。自今年2月以來,我們已經與超過五個復制GPT-2模型的團隊進行了交流。 進行這些對話并不容易,因為它涉及專有系統,而且我們并不清楚是討論這些模型應該找哪些人來交流,以及在不同組織和團隊間討論尚未發布的模型時,合適的流程是什么,等等。 2、通過模型合成的文本可能會讓人們感覺更為合理。 我們的合作伙伴Sarah Kreps和Miles McCain在康奈爾大學發表的一項研究表明,人們發現GPT-2合成文本的樣本幾乎與真人寫出的文本具有同樣的說服力(測試者中有72%的人認為這些合成的文章是可信的)《紐約時報》上的真實文章得票率為83%。 此外,艾倫研究所和華盛頓大學的研究表明,由名為“GROVER”的AI系統撰寫的新聞比人類寫的更為合理。這些研究結果使我們在發布語言模型時更加謹慎。 3.檢測模型并不是個簡單的事。 惡意使用者可以使用各種采樣技術(包括拒絕采樣)或微調模型來逃避檢測。最終部署的檢測系統可能需要在各代中都具備極高準確率(99.9%-99.99%)。 我們的研究表明,目前基于機器學習的方法只能達到90% 到95%的準確度,對語言模型進行微調還會進一步降低準確性。這條路真的很有前途,但這個問題也是真的困難。我們認為,文本的統計檢測需要輔以人類判斷和與文本相關的元數據,以便有效地打擊對語言模型的濫用。 OpenAI與其他機構團隊的合作

OpenAI與四家領先的研究機構合作,分析了新發布的7.74億參數的GPT-2模型,以及尚未發布的完整GPT-2模型。我們將一些初步結果寫入了技術報告,目前正在分析可能發布的15.58億參數完整模型的有關問題。此外,還制定了非商用法律協議,以促進組織機構之間的模型共享。 康奈爾大學正在研究人類對語言模型產生的數字虛假信息的敏感性。 米德爾伯里恐怖主義、極端主義和反恐國際研究中心(CTEC)正在探索GPT-2被網絡上的恐怖分子和極端分子濫用的情況。 俄勒岡大學在開發一系列“偏差檢測器”來分析GPT-2模型中的偏差。 德克薩斯大學奧斯汀分校正在研究在特定領域數據集上進行微調后的GPT-2輸出的統計可檢測性,以及跨不同語言模型的檢測傳遞程度。 未來,完整模型何時發布? 未來我們將綜合考慮以上這些合作伙伴的研究成果,觀察當前的7.74億參數模型的使用情況,并與研究人員和決策者討論語言模型的制定。作為我們分階段發布策略的一部分,我們目前的計劃是在幾個月內發布15.58億參數的完整GPT-2模型,但如果合作伙伴的調查結果有變,或者當前的模型出現了惡意使用,那么最終的發布時間也可能會變化。 我們認為,分階段發布、以及基于合作伙伴關系的模型共享,這兩點是負責任的AI模型發布的關鍵基礎,在性能強大的生成模型的背景下更是如此。未來,隨著時間的推移,大型模型固有的問題將會越來越多,而不是越來越少。我們希望在GPT-2模型上開展的合作會有助于解決這些問題。

大型語言模型存在無法估量的潛在威脅,公開數據需要謹慎再謹慎!

隨模型發布的還有一份技術報告,介紹與更廣泛的AI研究社區協調發布規范方面的經驗。新智元也把重點內容為大家做了總結:

大型語言模型在各個領域具有廣泛的用途。例如創建情感分類器、語音識別系統、翻譯系統、對話系統,區分由語言模型(尤其是對抗性示例)生成的合成文本和人類創作的文本。

除此之外,在生物醫學文獻分析、生成綜合測試數據、生成放射學報告和腦電圖報告等方面的應用對人類健康有著非常大的價值。

在過去六個月內,GPT-2已經被應用在軟件工程、文案、藝術、娛樂、健康等多個領域,幫助文字工作者糾正語法、提供靈感,為開發者自動補全代碼(例如Deep TabNine),創作音樂(例如OpenAI的MuseNet)等等。

小參數的GPT-2就在這些領域的成功應用,為研究人員發布更大規模參數的模型樹立了極大的信心。在此之前,研究人員一直擔心GPT-2可能導致無法估量的潛在風險,例如虛假信息、網絡暴力等。

研究人員將目前已知的惡意行為分為三個層級:

1. 初、中級。資源有限,可能只是好奇想試著搞點事情 2. 專家級。能力夠,資源也不少。例如水軍、營銷號、垃圾郵件等 3. 大師級。也被稱為高級持續性威脅(APT),技能一流,資源充足,能夠打硬仗、打持久戰

研究人員通過后續監測最終確認,別有用心之人很難具備利用GPT-2掀起滔天巨浪的能力和資源,因此研究人員才敢繼續釋放更大規模的參數。

而面對大師級的惡意攻擊者,數據量的多少,根本不能顯著的影響他們為非作歹的意愿和進度。這個時候,正式專業的安防機構體現價值的機會。

OpenAI正在和合作伙伴攜手研究應對可能的各種威脅,制定對戰策略,加固正義的防線。

語言模型未來的四大趨勢

通過進一步的研究,OpenAI希望語言模型能夠以更高的輸出質量和準確度擴展性能。除了這些模型級別的改進之外,OpenAI還確定了四種趨勢,以便以有益和有效的方式理解和塑造語言模型的社會影響。 趨勢1:語言模型轉移到設備 考慮到計算能力成本的歷史趨勢,我們可以期待語言模型在一系列設備上得到更廣泛的部署。例如,Hugging Face將1.24億參數GPT-2移植到Swift CoreML中,以便在iOS設備上進行推理。 趨勢2:更可控的文本生成 語言模型的潛在用途將隨著提高可靠性和/或可控性的發展而增長,例如新的抽樣方法、新的數據集、新的目標函數和新的人機界面。 可控性的例子包括: ?在GROVER模型中,進行界面修改以引入輸出可控性,使得可以輸入文章元數據(例如,標題,作者)以生成高質量輸出。 ?清華大學的ERNIE模型與知識庫相結合,促進了比通用語言模型更可控的生成。 ?Stanford和FAIR展示了通過更直接地針對高級會話屬性(例如重復程度)進行優化來改善聊天機器人性能的潛力。 趨勢3:更多風險分析 目前還不清楚如何比較具有不同性能配置文件的兩個大型語言模型的誤用性(misusability),特別是在考慮微調(fine-tuning)時。一些關鍵的考慮因素包括在模型的幫助下生成一定質量的文本所需的時間和專業知識,以及不使用模型的情況,盡管隨著技術工具的發展,這將隨著時間的推移而變化。 趨勢4:工具可用性提升 今天,模型的訓練和部署需要了解ML技術,使用工具的技能以及訪問測試平臺以進行評估。穩步改進的與語言模型交互的工具,如Talk to Transformer和Write with Transformer,將擴大能夠以各種不同方式使用語言模型的參與者的數量。這些對工具可用性的改進將對模型性能和采樣方法的改進起到補充作用,并將使語言模型的創造性應用比我們目前看到的更廣泛。

GPT-2時間線梳理

2019年2月

OpenAI首次公布了GPT-2論文以及1.24億參數的GPT-2模型。

論文: https://d4mucfpksywv.cloudfront.net/better-language-models/language_models_are_unsupervised_multitask_learners.pdf

2019年3月

OpenAI及其合作伙伴舉行晚宴討論發布高風險AI的合適時機: https://www.partnershiponai.org/when-is-it-appropriate-to-publish-high-stakes-ai-research/

2019年5月

發布3.35億模型,以及大規模模型輸出的數據集。

發布檢測基線,幫助人們了解如何檢測GPT-2等模型的輸出。

TalktoTransformer.com網站上線,可以讓大眾直觀體驗GPT-2。輸入一句話,它會自動為你腦補出一段狗血劇情,下圖:

隨后一份教程上線。但作者也提醒GPT-2帶來的潛在風險不可限量,并舉例水軍機器人由于GPT-2得到極大的提升。

2019年6月

OpenAI在國會聽證會上,討論關于合成媒體的影響,包括討論合成文本。

DeepMind討論了GPT-2及適用于生成模型的出版規范的重要性無監督學習的討論: https://deepmind.com/blog/article/unsupervised-learning

OpenAI開始與合作伙伴開展研究合作,以制定人工智能研究的出版規范。并嘗試與各種各樣的人工智能研究組織合作,提出科學家在發布之前可能要問的問題,以及他們可以用來做出版決策的潛在框架。

2019年7月

DeepTabNine基于GPT-2開發代碼自動補全應用。

使用自回歸Transformer模型生成多圈對話響應:

https://arxiv.org/abs/1908.01841

GLTR:生成文本的統計檢測和可視化: https://www.aclweb.org/anthology/P19-3019

2019年8月

科技術項目和劍橋大學的研究人員發表了一篇關于減少合成惡意使用的工作文件媒體研究:機器學習的注意事項和潛在發布實踐

論文: https://arxiv.org/abs/1907.11274

初創公司AI21 Labs發布了一個神經文本生成器“HAIM”,他們只發布了該模型的3.45億參數版本: https://www.ai21.com/haim-post

NVIDIA Research訓練了83億參數GPT-2模型: https://nv-adlr.github.io/MegatronLM

發布了7.74億參數模型。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 語言模型
    +關注

    關注

    0

    文章

    520

    瀏覽量

    10268
  • 數據集
    +關注

    關注

    4

    文章

    1208

    瀏覽量

    24689
  • nlp
    nlp
    +關注

    關注

    1

    文章

    488

    瀏覽量

    22033

原文標題:史上最強通用NLP模型GPT-2:OpenAI剛又發布7.74億參數版本

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    OpenAI宣布啟動GPT Next計劃

     9月4日最新資訊,OpenAI Japan 在KDDI峰會上亮相,揭開了其即將問世的下一代AI模型的神秘面紗,并正式宣布旨在2024年啟動的GP
    的頭像 發表于 09-04 14:51 ?591次閱讀

    OpenAI發布最新人工智能模型——GPT-4o mini

    據國際媒體報道,OpenAI 在周四震撼發布其最新的人工智能模型——GPT-4o mini,此舉標志著這家領先的AI初創公司在拓寬其廣受歡
    的頭像 發表于 07-19 15:24 ?620次閱讀

    OpenAI推出新模型CriticGPT,用GPT-4自我糾錯

    在人工智能領域,每一次技術的革新都標志著向更高級別智能邁進的一步。OpenAI,作為這一領域的佼佼者,近日再次引領行業的新潮流。周四,該公司發布一則令人振奮的新聞稿,
    的頭像 發表于 06-29 09:55 ?540次閱讀

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了

    當地時間5月13日OpenAI推出ChatGPT-4o,代表人工智能向前邁出的一大步。在GPT-4turbo的強大基礎上,這種迭代擁有顯著的改進。在發布會的演示中,
    發表于 05-27 15:43

    OpenAI發布全新GPT-4o模型

    近日,OpenAI宣布推出全新的GPT-4o模型,標志著人工智能領域的一大技術飛躍。這款模型不僅具備強大的生成能力,還能精準理解用戶意圖,提
    的頭像 發表于 05-17 11:48 ?648次閱讀

    OpenAI全新GPT-4o能力炸場!速度快/成本低,能讀懂人類情緒

    電子發燒友網報道(文/李彎彎)當地時間5月13日,OpenAI舉行春季發布會,宣布將推出桌面版ChatGPT,并發布全新旗艦AI模型
    的頭像 發表于 05-15 00:15 ?7815次閱讀

    OpenAI發布GPT-4o模型,支持文本、圖像、音頻信息,速度提升一倍,價格不變

     此外,該模型還具備128K的上下文記憶能力,知識截止日期設定為2023年10月。微軟方面也宣布,已通過Azure OpenAI服務提供GPT-4o的預覽版。
    的頭像 發表于 05-14 17:12 ?845次閱讀

    OpenAI推出全新大語言模型

    今日凌晨,科技界迎來了一次激動人心的突破。OpenAI正式發布全新的旗艦模型GPT-4o,這一模型
    的頭像 發表于 05-14 11:53 ?626次閱讀

    OpenAI計劃宣布ChatGPT和GPT-4更新

    人工智能領域的領軍企業OpenAI近日宣布,將于5月13日進行一場產品更新直播,屆時將揭曉ChatGPT和GPT-4的新進展。這一消息立即引發了外界對OpenAI下一項重大技術
    的頭像 發表于 05-13 11:06 ?580次閱讀

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    下游任務提供豐富的文本表示,如谷歌公司推出的BERT。(2) Decoder-Only 預訓練語言模型:這類模型一般使用單向的 Decoder 結構,通常擅長生成任務,如
    發表于 05-05 12:17

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    維基百科、網頁內容和書籍等,不僅掌握語言的語法、語義和上下文信息,還能生成結構連貫、語義合理的句子和段落。大語言模型的一個顯著特點是其龐大的參數
    發表于 05-04 23:55

    OpenAI有望在年中推出全新GPT-5模型

    近日,人工智能領域的領軍企業OpenAI傳來了令人振奮的消息。據悉,他們有望在今年的年中,大約是夏季時分,推出全新的GPT-5模型。這一消息引發了業界的廣泛關注與期待。
    的頭像 發表于 03-22 11:29 ?774次閱讀

    OpenAI預計最快今年夏天發布GPT-5

    OpenAI正計劃在未來數月內,可能是今年夏季,發布備受矚目的GPT-5模型。據悉,部分企業客戶已提前體驗
    的頭像 發表于 03-22 10:40 ?759次閱讀

    視覺模型weak-to-strong的實現

    幾天前,OpenAI「超級對齊」(Superalignment)團隊發布成立以來的首篇論文,聲稱開辟對超人類模型進行實證對齊的新研究方向
    的頭像 發表于 01-08 11:07 ?437次閱讀
    視覺<b class='flag-5'>模型</b>weak-to-strong的實現

    OpenAI GPT 商店即將亮相,SpaceX 新型 Starlink 衛星發射上天

    大家好,歡迎收看河套 IT WALK 第 135 期。 在 2024 年第一周即將結束之際,OpenAI 宣布即將推出備受期待的 GPT 商店。SpaceX 在衛星通信領域實現重大突
    的頭像 發表于 01-05 21:15 ?608次閱讀
    <b class='flag-5'>OpenAI</b> <b class='flag-5'>GPT</b> 商店即將亮相,SpaceX 新型 Starlink 衛星發射上天
    主站蜘蛛池模板: 99国产精品久久人妻无码| 日本一区不卡在线播放视频免费| 国产在线观看免费| 高清观看ZSHH96的视频素材| brazzers欧美最新版视频| 973午夜伦伦电影论片| 中文字幕无码A片久久| 伊人久久一本| 伊人热人久久中文字幕| 夜夜精品视频一区二区| 亚洲伊人色| 伊人久久综在合线影院| 尤蜜网站在线进入免费| 亚洲午夜电影| 曰本女人牲交视频免费| 在公交车上被JB草坏了被轮J了 | 国语自产一区视频| 国产亚洲精品久久久久久无码网站| 国产精品免费视频能看| 国产手机在线亚洲精品观看| 韩国甜性涩爱| 久久日本精品在线热| 棉签和冰块怎么弄出牛奶视频| 97在线视频网站| cctv网站| 国产Av影片麻豆精品传媒| 国产乱码伦人偷精品视频| 黄 色 网 站 免 费 涩涩屋| 久久99r66热这里只有精品| 老师的丝袜脚| 日韩黄色免费| 亚欧乱亚欧乱色视频| 一色屋精品亚洲香蕉网站| 97视频免费观看2区| 成人在线不卡视频| 国产婷婷一区二区在线观看| 精品国内自产拍在线观看视频| 免费国产网站| 色欲AV亚洲永久无码精品麻豆| 亚洲AV永久无码精品澳门| 中文字幕一区二区三区在线观看|