色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

度曉曉1秒1篇高考作文,都是因為預訓練大模型

Carol Li ? 來源:電子發燒友網 ? 作者:李彎彎 ? 2022-06-10 00:02 ? 次閱讀

電子發燒友網報道(文/李彎彎)6月7日,百度推出的數字人度曉曉作答了全國新高考Ⅰ卷題為《本手、妙手、俗手》議論文,40秒就根據題目創作了40多篇文章,平均1秒生成1篇,隨機抽取其中一篇,其分數趕超約75%高考考生。


而這得益于文心大模型最新發布的融合任務相關知識的千億大模型ERNIE 3.0 Zeus,該模型在學習海量數據和知識的基礎上,進一步學習百余種不同形式的任務知識,增強了模型的效果,在各類NLP任務上表現出了更強的零樣本和小樣本學習能力。

基于文心大模型的智能創作

大模型是人工智能大基礎設施的重要組成,“文心大模型”是百度近幾年在花大力氣投入研發的技術基礎設施。自2019年開始,百度深耕預訓練模型研發,并在該年3月率先發布中國首個正式開放的預訓練模型ERNIE1.0。

去年12月,百度聯合鵬城實驗室發布了鵬城-百度·文心大模型,這是全球首個知識增強千億大模型,也目前全球最大中文單體模型,參數規模達到2600億。

在今年5月20日的WAVE SUMMIT 2022深度學習開發者峰會上,文心大模型一次性發布10個新的大模型,涵蓋基礎大模型、任務大模型和行業大模型三級體系,其中就包括融合任務相關知識的千億NLP大模型ERNIE 3.0 Zeus。

千億規模參數的NLP基礎大模型ERNIE 3.0 Zeus在學習海量數據和知識的基礎上,進一步學習百余種不同形式的任務知識,增強模型效果;融合層次化提示的預訓練,更好地建模不同任務的共性與特性;將不同任務組織成統一的自然語言形式,統一建模增強模型的泛化能力,其相較于其他NLP大模型,在各類NLP任務上表現出了更強的零樣本和小樣本學習能力。

近年來,百度AI技術加速落地,新興的AIGC更是引人注目。AIGC是繼 UGC、PGC之后新型利用AI技術自動生成內容的生產方式。百度研究院預測,2022年AIGC技術將借助大模型的跨模態綜合技術能力,可以激發創意,提升內容多樣性,降低制作成本,實現大規模應用。

本次度曉曉寫高考作文,就是基于飛槳文心大模型實現的AIGC創作,文心大模型具備“知識增強”的核心特點,能從大規模知識和海量數據中進行融合學習,學習效率更高、效果更好,具有通用性好、泛化性強的特點。

除了智能寫作,在文心大模型的支持下,AI已經具備很強的理解和生成能力,能夠實現創意作品的自動生成,包括AI作畫、AI寫歌、AI剪輯等,未來,基于大模型的AIGC將會開放賦能到更多的內容生產領域。除了在智能創作上外,文心大模型也已經在工業、能源、教育、金融、通信、媒體等諸多行業得到應用。

預訓練大模型使AI通用性增強

大模型是AI領域最重要的前沿技術方向,自2018年OpenAI推出1.1億參數的GPT以后,谷歌、微軟、Facebook等相繼推出自己的預訓練模型,2020年OpenAI再次推出1750億參數的GPT-3,更是引發科研機構和企業在大模型研究的競賽,大模型的參數規模逐漸增加。

2021年大模型層出不窮,1月,谷歌發布首個萬億級模型Switch Transformer;3月,北京智源研究院發布悟道1.0,6月發布悟道2.0,參數規模超過百億;4月,華為云發布盤古大模型,這是業界首個千億參數中文語言預訓練模型;9月,浪潮發布參數量達2457億的巨量模型“源1.0”;11月,英偉達與微軟聯合發布5300億參數的“MT-NLG”;同在11月,阿里達摩院宣布其多模態大模型M6最新參數從萬億躍遷至10萬億,超過谷歌、微軟此前發布的萬億級模型,成為全球最大的AI預訓練模型。

預訓練大模型其實是機器學習的一種方式,類比人的學習來看,人的學習可以分成通識教育和專業教育兩段,預訓練大模型相當于解決機器學習的通識教育。此前,機器學習主要通過標注數據,告訴算法哪個數據是正負樣本等進行學習。由于人工智能落地場景很多,每個場景都要采數據、標數據,因此在標注的數量和質量上存在很大的瓶頸。

為解決以上問題,自然語言處理領域迎來了一個新的突破:自監督學習,指的是不用人為標注數據,機器可以用一個方法把知識和規律學出來。比如,在模型訓練中,如果我們把“中國的首都是北京”這句話中的“北京”蓋住,讓模型去猜中國的首都是哪里,模型可能會猜一個城市,再把蓋的地方翻開,告訴模型是對了還是錯了,模型也就得到了反饋。

通過設計類似的學習方式,讓模型可以在海量的數據當中進行自監督學習。這個機制的好處就是,它可以把天然存在的大量數據利用起來,打破一定要精標數據才能學習的瓶頸,大模型的出現,實際上是為了大幅度降低了行業應用的門檻。

還有一個特別容易理解的解釋,預訓練大模型是在一個原始任務上預先訓練一個初始模型,然后在目標任務上使用該模型,針對目標任務的特性,對該初始模型進行精調,從而達到提高目標任務的目的。在本質上,這是一種遷移學習的方法,在自己的目標任務上使用別人訓練好的模型。

整體而言,預訓練大模型的興起,使得人工智能的通用性進一步增強,大模型具有效果好、泛化性強、研發流程標準化程度高等特點,正在成為人工智能技術及應用的新基座。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 智能
    +關注

    關注

    8

    文章

    1718

    瀏覽量

    117889
  • 百度
    +關注

    關注

    9

    文章

    2306

    瀏覽量

    91128
  • 人工智能
    +關注

    關注

    1800

    文章

    48094

    瀏覽量

    242225
收藏 人收藏

    評論

    相關推薦

    從Open Model Zoo下載的FastSeg大型公共訓練模型,無法導入名稱是怎么回事?

    從 Open Model Zoo 下載的 FastSeg 大型公共訓練模型。 運行 converter.py 以將 FastSeg 大型模型轉換為中間表示 (IR): pyth
    發表于 03-05 07:22

    用PaddleNLP在4060單卡上實踐大模型訓練技術

    作者:算力魔方創始人/英特爾創新大使劉力 之前我們分享了《從零開始訓練一個大語言模型需要投資多少錢》,其中高昂的訓練費用讓許多對大模型
    的頭像 發表于 02-19 16:10 ?495次閱讀
    用PaddleNLP在4060單卡上實踐大<b class='flag-5'>模型</b><b class='flag-5'>預</b><b class='flag-5'>訓練</b>技術

    KerasHub統一、全面的訓練模型

    深度學習領域正在迅速發展,在處理各種類型的任務中,訓練模型變得越來越重要。Keras 以其用戶友好型 API 和對易用性的重視而聞名,始終處于這一動向的前沿。Keras 擁有專用的內容庫,如用
    的頭像 發表于 12-20 10:32 ?246次閱讀

    什么是大模型、大模型是怎么訓練出來的及大模型作用

    ,基礎模型。 ? 大模型是一個簡稱,完整的叫法,應該是“人工智能訓練模型”。
    的頭像 發表于 11-25 09:29 ?1w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓練</b>出來的及大<b class='flag-5'>模型</b>作用

    華為宋迪出席自動駕駛網絡峰會

    第10屆全球超寬帶高峰論壇(UBBF 2024)期間,華為運營商業務首席營銷官宋迪博士出席自動駕駛網絡峰會,并發表主題致辭。會上,宋迪分享了華為與合作伙伴的產業發展及商業實踐成果。
    的頭像 發表于 11-04 16:08 ?574次閱讀

    直播預約 |數據智能系列講座第4期:訓練的基礎模型下的持續學習

    鷺島論壇數據智能系列講座第4期「訓練的基礎模型下的持續學習」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學術盛宴!|直播信息報告題目
    的頭像 發表于 10-18 08:09 ?353次閱讀
    直播預約 |數據智能系列講座第4期:<b class='flag-5'>預</b><b class='flag-5'>訓練</b>的基礎<b class='flag-5'>模型</b>下的持續學習

    【《大語言模型應用指南》閱讀體驗】+ 基礎

    的章節包括統一自然語言任務、大語言模型訓練過程和局限性分析,閱讀還算順利。 至此,基礎只能算是瀏覽完成,因為部分原理方法并沒有吃透,但盡管如此也是收獲頗豐,
    發表于 07-25 14:33

    訓練和遷移學習的區別和聯系

    訓練和遷移學習是深度學習和機器學習領域中的兩個重要概念,它們在提高模型性能、減少訓練時間和降低對數據量的需求方面發揮著關鍵作用。本文將從定義、原理、應用、區別和聯系等方面詳細探討
    的頭像 發表于 07-11 10:12 ?1492次閱讀

    大語言模型訓練

    能力,逐漸成為NLP領域的研究熱點。大語言模型訓練是這一技術發展的關鍵步驟,它通過在海量無標簽數據上進行訓練,使模型學習到語言的通用知識
    的頭像 發表于 07-11 10:11 ?694次閱讀

    訓練模型的基本原理和應用

    訓練模型(Pre-trained Model)是深度學習和機器學習領域中的一個重要概念,尤其是在自然語言處理(NLP)和計算機視覺(CV)等領域中得到了廣泛應用。
    的頭像 發表于 07-03 18:20 ?3544次閱讀

    官宣!李球博士擔任博格華納新任中國區總裁

    球博士(Shawn Li)將于2024年7月1日起擔任博格華納中國區總裁,接替即將退休的現任博格華納中國區總裁談躍生(Tom Tan)。
    的頭像 發表于 05-19 14:11 ?741次閱讀
    官宣!李<b class='flag-5'>曉</b>球博士擔任博格華納新任中國區總裁

    【大語言模型:原理與工程實踐】大語言模型訓練

    大語言模型的核心特點在于其龐大的參數量,這賦予了模型強大的學習容量,使其無需依賴微調即可適應各種下游任務,而更傾向于培養通用的處理能力。然而,隨著學習容量的增加,對訓練數據的需求也相
    發表于 05-07 17:10

    特斯拉中國區副總裁朱彤回歸

    2023 年 1 月 3 日,有報道稱朱彤已晉升至全球管理層,負責美國生產業務以及北美和歐洲地區的銷售、交付和售后工作。特斯拉內部公告顯示,朱彤仍擔任中國和亞洲其他地區的最高級別管理人員職位。
    的頭像 發表于 05-06 14:43 ?679次閱讀

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    ,直到現在的大語言模型。 基于Transformer結構,訓練語言模型可以大致被劃分為以下三類。 (1) Encoder-Only
    發表于 05-05 12:17

    【大語言模型:原理與工程實踐】核心技術綜述

    訓練和微調,直到模型的部署和性能評估。以下是對這些技術的綜述: 模型架構: LLMs通常采用深層的神經網絡架構,最常見的是Transformer網絡,它包含多個自注意力層,能夠捕
    發表于 05-05 10:56
    主站蜘蛛池模板: 97久久伊人精品影院 | 熟妇的味道HD中文字幕 | 免费看黄的片多多APP下载 | 久久成人无码国产免费播放 | 国产综合无码一区二区色蜜蜜 | 涩涩视频在线看 | 亚洲午夜AV久久久精品影院色戒 | 亚洲AV无码久久流水呻蜜桃久色 | 国产盗摄一区二区三区 | 把腿张开再深点好爽宝贝动态图 | 一级毛片皇帝 宫女 | 国产精品1卡二卡三卡四卡乱码 | 八妻子秋霞理在线播放 | 嫩草成人影院 | 九九热在线免费观看 | 国产欧美国日产在线播放 | 精品国产午夜福利在线观看蜜月 | 欲香欲色天天影视大全 | 久久精品无码成人国产毛 | 无止侵犯高H1V3无止侵犯 | jizzjizz3d动漫| 精品亚洲一区二区在线播放 | 美女被触手注入精子强制受孕漫画 | 久久久国产精品免费A片3D | 亚洲精品国产乱码AV在线观看 | 2012中文字幕手机在线 | 国产AV精品白浆一区二 | 国产亚洲欧洲日韩在线观看 | 亚洲欧洲精品A片久久99 | 国内精品乱码卡一卡2卡三卡 | 欧美深深色噜噜狠狠yyy | 成年视频国产免费观看 | 日韩高清特级特黄毛片 | 久久只精品99品免费久 | 在线观看免费亚洲 | 毛片免费在线播放 | 浴室里强摁做开腿呻吟的漫画 | 国产毛A片久久久久久无码 国产毛A片啊久久久久久A | 精品午夜久久福利大片免费 | 久久精品中文騷妇女内射 | 亚洲在线2018最新无码 |