色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么是基礎(chǔ)模型

NVIDIA英偉達(dá) ? 來源:NVIDIA英偉達(dá) ? 2023-04-27 14:50 ? 次閱讀

基礎(chǔ)模型是在大量無標(biāo)簽數(shù)據(jù)集上訓(xùn)練的 AI 神經(jīng)網(wǎng)絡(luò),可處理從翻譯文本到分析醫(yī)學(xué)影像等各種工作。

1956 年,一間錄音室里的麥克風(fēng)開著,磁帶在不停地轉(zhuǎn)動(dòng),Miles Davis Quintet 正在里面為 Prestige Records 錄制幾十首曲子。

當(dāng)一名錄音工程師問起下一首歌曲叫什么時(shí),Davis 回答道:“等我演奏完后,再告訴你它叫什么。”

如同這位多產(chǎn)的爵士樂小號(hào)手兼作曲家一樣,研究人員也一直在以瘋狂的速度生成 AI 模型,探索新的架構(gòu)和用例。他們把精力都放到了開拓新領(lǐng)域上,因此有時(shí)會(huì)讓其他人來分類他們的工作。

一支百來名斯坦福大學(xué)研究人員組成的團(tuán)隊(duì)在 2021 年夏天發(fā)布了一篇論文,共同完成了這項(xiàng)工作。

260e36ca-e4bf-11ed-ab56-dac502259ad0.jpg

研究人員在 2021 年的一篇論文中表示,基礎(chǔ)模型的用途正在變得越來越廣泛。

他們把 Transformer 模型、大型語言模型(LLM)和其他仍在構(gòu)建的神經(jīng)網(wǎng)絡(luò)歸入到這個(gè)被他們稱之為基礎(chǔ)模型的重要新類別中。

基礎(chǔ)模型的定義

這篇論文將基礎(chǔ)模型定義為一種在大量原始數(shù)據(jù)的基礎(chǔ)上通過無監(jiān)督學(xué)習(xí)訓(xùn)練而成的 AI 神經(jīng)網(wǎng)絡(luò),可適應(yīng)各種任務(wù)。

他們?cè)谡撐闹袑懙溃骸斑^去幾年中,基礎(chǔ)模型的規(guī)模和范圍超出了我們的想象。”

在定義這個(gè)總括性的類別時(shí)考慮了兩個(gè)重要的概念:是否讓數(shù)據(jù)采集變得更容易以及是否有無邊無垠的可能性。

沒有標(biāo)簽,但有無限的可能性

基礎(chǔ)模型通常使用無標(biāo)簽數(shù)據(jù)集進(jìn)行學(xué)習(xí),節(jié)省了手動(dòng)描述大量數(shù)據(jù)集內(nèi)各個(gè)項(xiàng)目的時(shí)間和費(fèi)用。

早期的神經(jīng)網(wǎng)絡(luò)會(huì)被針對(duì)特定任務(wù)進(jìn)行嚴(yán)格的調(diào)整。在經(jīng)過略微調(diào)整后,基礎(chǔ)模型就可以負(fù)責(zé)從翻譯文本到分析醫(yī)學(xué)影像等各類工作。

該團(tuán)隊(duì)在其研究中心網(wǎng)站上表示,基礎(chǔ)模型正展現(xiàn)出“驚人的行為”并且正在被大規(guī)模部署。到目前為止,團(tuán)隊(duì)內(nèi)部研究人員已經(jīng)發(fā)布了 50 多篇關(guān)于基礎(chǔ)模型的論文。

中心主任 Percy Liang 在第一次基礎(chǔ)模型研討會(huì)開場(chǎng)演講中表示:“我認(rèn)為我們現(xiàn)在只開發(fā)了現(xiàn)今基礎(chǔ)模型很小一部分的能力,更不用說未來的模型了。”

AI 的涌現(xiàn)和同質(zhì)化

在那次演講中,Liang 創(chuàng)造了兩個(gè)術(shù)語來描述基礎(chǔ)模型:

涌現(xiàn)指仍在發(fā)掘的 AI 特征,比如基礎(chǔ)模型中的許多新生技能。他還把 AI 算法和模型架構(gòu)的混合稱為同質(zhì)化,該趨勢(shì)推動(dòng)了基礎(chǔ)模型的形成(見下圖)。

261e5726-e4bf-11ed-ab56-dac502259ad0.jpg

這個(gè)領(lǐng)域正在繼續(xù)快速發(fā)展。

在該團(tuán)隊(duì)定義基礎(chǔ)模型一年后,其他科技觀察家創(chuàng)造了一個(gè)與之相關(guān)的術(shù)語——生成式 AI。這個(gè)總括性的術(shù)語指 Transformer 、大型語言模型、擴(kuò)散模型等憑借創(chuàng)造文本、圖像、音樂、軟件等內(nèi)容的能力拓展人們想象力的神經(jīng)網(wǎng)絡(luò)。

風(fēng)投公司紅杉資本的高管在最近的 AI 播客節(jié)目中表示,生成式 AI 可能創(chuàng)造數(shù)萬億美元的經(jīng)濟(jì)價(jià)值。

基礎(chǔ)模型簡(jiǎn)史

企業(yè)家兼 Google Brain 前高級(jí)研究科學(xué)家 Ashish Vaswani 表示:“我們已進(jìn)入到一個(gè)通過神經(jīng)網(wǎng)絡(luò)這樣的簡(jiǎn)單方法就能成倍增加新能力的時(shí)代。”他曾領(lǐng)導(dǎo) 2017 年那篇關(guān)于 Transformer 的開創(chuàng)性論文的研究工作。

這篇論文啟發(fā)了創(chuàng)建 BERT 和其他大型語言模型的研究人員。2018 年末的一篇 AI 報(bào)告寫道,2018 年是自然語言處理的“分水嶺”。

谷歌將 BERT 作為開源軟件發(fā)布,催生了一系列后續(xù)產(chǎn)品并點(diǎn)燃了一場(chǎng)構(gòu)建更大、更強(qiáng)的大型語言模型的競(jìng)賽。之后,谷歌將該技術(shù)應(yīng)用于其搜索引擎,使用戶可以使用簡(jiǎn)單的句子提問。

2020 年,OpenAI 的研究人員發(fā)布了另一個(gè)具有里程碑意義的 Transformer—GPT-3。僅僅過了幾周,人們就用它來創(chuàng)作詩歌、程序、歌曲、網(wǎng)站等等。

研究人員表示:“語言模型對(duì)社會(huì)有著各種有益的用途。”

他們的工作也顯示了這些模型龐大的規(guī)模和計(jì)算量。GPT-3 是在一個(gè)含近萬億個(gè)單詞的數(shù)據(jù)集上訓(xùn)練的,并且擁有高達(dá) 1750 億個(gè)參數(shù)。而參數(shù)量是衡量神經(jīng)網(wǎng)絡(luò)能力和復(fù)雜性的一個(gè)關(guān)鍵指標(biāo)。

26239f06-e4bf-11ed-ab56-dac502259ad0.jpg

基礎(chǔ)模型算力需求的增長(zhǎng)。

(來源:GPT-3論文)

Liang 在談到 GPT-3 時(shí)說道:“我只記得當(dāng)時(shí)我被它能做的事情嚇了一跳。”

而在 10000 個(gè) NVIDIA GPU 上訓(xùn)練而成的最新版本——ChatGPT 更加轟動(dòng),在短短兩個(gè)月內(nèi)就吸引了超過 1 億用戶。ChatGPT 幫助許多人了解了可以如何使用這項(xiàng)技術(shù),它的發(fā)布被稱為人工智能的“iPhone 時(shí)刻”。

262a1a52-e4bf-11ed-ab56-dac502259ad0.jpg

從早期 AI 研究到 ChatGPT 的時(shí)間線。

(來源:blog.bytebytego.com)

從文本到圖像

大約在 ChatGPT 首次亮相的同時(shí),另一類被稱為擴(kuò)散模型的神經(jīng)網(wǎng)絡(luò)也引起了轟動(dòng)。其將文本描述轉(zhuǎn)化為藝術(shù)圖像的能力吸引了眾多業(yè)余用戶用它們來創(chuàng)造驚艷的圖像并在社交媒體上瘋傳。

第一篇描述擴(kuò)散模型的論文在 2015 年悄無聲息地發(fā)布,但就像 Transformer 一樣,這項(xiàng)新技術(shù)很快就火遍全球。

根據(jù)牛津大學(xué) AI 研究員 James Thornton 維護(hù)的一份清單,研究人員去年發(fā)布了 200 多篇關(guān)于擴(kuò)散模型的論文。

Midjourney 首席執(zhí)行官 David Holz 透露,其基于擴(kuò)散模型的文本-圖像轉(zhuǎn)換服務(wù)已有 440 多萬用戶。他在一次采訪中表示,為這些用戶提供服務(wù)需要超過 1 萬顆 NVIDIA GPU,這些 GPU 主要用于 AI 推理。

數(shù)十種正在使用的模型

目前有數(shù)以百計(jì)的基礎(chǔ)模型。有一篇論文對(duì) 50 多個(gè)主要的 Transformer 模型進(jìn)行了編目和分類(見下方表格)。

斯坦福大學(xué)的研究小組對(duì) 30 個(gè)基礎(chǔ)模型進(jìn)行了基準(zhǔn)測(cè)試。他們表示,該領(lǐng)域的發(fā)展太快,以至于他們沒能在這次測(cè)試對(duì)一些最新和突出的模型進(jìn)行評(píng)估。

初創(chuàng)企業(yè) NLP Cloud 是領(lǐng)先初創(chuàng)企業(yè)培育計(jì)劃——NVIDIA 初創(chuàng)加速計(jì)劃的成員。該公司表示其在為航空公司、藥店和其他用戶服務(wù)的一項(xiàng)商業(yè)產(chǎn)品中使用了大約 25 個(gè)大型語言模型。專家們預(yù)計(jì),越來越多的模型將在如 Hugging Face 的模型中心等網(wǎng)站開放源碼。

263c30e8-e4bf-11ed-ab56-dac502259ad0.jpg

專家們指出,越來越多的基礎(chǔ)模型正在開放源碼。

基礎(chǔ)模型也在不斷變得更大、更復(fù)雜。所以許多企業(yè)已經(jīng)在定制預(yù)訓(xùn)練的基礎(chǔ)模型來加快向 AI 轉(zhuǎn)型的速度,而不是從頭開始構(gòu)建新的模型。

云中的基礎(chǔ)模型

一家風(fēng)險(xiǎn)投資公司列出了從廣告生成到語義搜索等 33 個(gè)生成式 AI 用例。

各大云服務(wù)使用基礎(chǔ)模型已經(jīng)有一段時(shí)間了。例如微軟 Azure 與 NVIDIA 一起為其 Translator 服務(wù)構(gòu)建了一個(gè) Transformer。該 Transformer 幫助救災(zāi)人員在應(yīng)對(duì) 7.0 級(jí)地震時(shí)理解海地克里奧爾語。

今年 2 月,微軟宣布計(jì)劃使用 ChatGPT 和相關(guān)創(chuàng)新來改進(jìn)其瀏覽器和搜索引擎,表示:“我們將這些工具視為網(wǎng)絡(luò)中的 AI 副駕駛。”

谷歌發(fā)布了實(shí)驗(yàn)性對(duì)話式 AI 服務(wù) Bard,計(jì)劃將其眾多產(chǎn)品與 LaMDA、PaLM、Imagen、MusicLM 等基礎(chǔ)模型相結(jié)合。

該公司的博客寫道:“AI 是我們今天正在研究的最具影響力的技術(shù)。”

初創(chuàng)企業(yè)也從中獲益

初創(chuàng)企業(yè) Jasper 預(yù)計(jì)其為 VMware 等公司編寫文案的產(chǎn)品將帶來 7500 萬美元的年收入。該企業(yè)正在領(lǐng)導(dǎo)由十幾家公司組成的文本生成領(lǐng)域,其中包括 NVIDIA 初創(chuàng)加速計(jì)劃成員 Writer。

該領(lǐng)域的其他初創(chuàng)加速計(jì)劃成員包括:位于東京的 rinna 和特拉維夫的 Tabnine。前者創(chuàng)造出了被日本數(shù)百萬人使用的聊天機(jī)器人;后者運(yùn)營(yíng)的一項(xiàng)生成式 AI 服務(wù)將全球一百萬開發(fā)者所編寫的代碼中的 30%自動(dòng)化。

醫(yī)療平臺(tái)

初創(chuàng)企業(yè) Evozyne 的研究人員利用 NVIDIA BioNeMo 中的基礎(chǔ)模型生成了兩種新的蛋白質(zhì)。其中一種蛋白質(zhì)可以治療一種罕見的疾病,另一種可以幫助捕捉大氣中的碳。

264bf47e-e4bf-11ed-ab56-dac502259ad0.jpg

Evozyne 和 NVIDIA 在一篇聯(lián)合論文中描述了一種用于創(chuàng)建蛋白質(zhì)的混合基礎(chǔ)模型。

BioNeMo 是用于藥物研發(fā)的生成式 AI 軟件平臺(tái)和云服務(wù)。它提供各種用于訓(xùn)練、運(yùn)行推理和部署自定義生物分子 AI 模型的工具,包括由 NVIDIA 和阿斯利康聯(lián)合開發(fā)的化學(xué)生成式 AI 模型——MegaMolBART。

阿斯利康分子 AI、發(fā)現(xiàn)科學(xué)和研發(fā)部門主管 Ola Engkvist 在宣布該模型時(shí)表示:“正如 AI 語言模型可以學(xué)習(xí)句子中單詞之間的關(guān)系一樣,我們的目標(biāo)是讓在分子結(jié)構(gòu)數(shù)據(jù)上訓(xùn)練的神經(jīng)網(wǎng)絡(luò)能夠?qū)W習(xí)真實(shí)分子中原子之間的關(guān)系。”

佛羅里達(dá)大學(xué)的學(xué)術(shù)健康中心與 NVIDIA 研究人員聯(lián)合創(chuàng)建了大型語言模型 GatorTron,該模型能夠從大量臨床數(shù)據(jù)中提煉出加速醫(yī)學(xué)研究的洞察。

斯坦福大學(xué)的一座中心正在使用最新的擴(kuò)散模型來推進(jìn)醫(yī)學(xué)成像。NVIDIA 還幫助醫(yī)療公司和醫(yī)院將 AI 用于醫(yī)學(xué)影像,以便加快對(duì)致命疾病的診斷。

商業(yè) AI 基礎(chǔ)模型

另一個(gè)新框架 NVIDIA NeMo Megatron 旨在讓所有企業(yè)能夠創(chuàng)建自己的十億或萬億參數(shù) Transformer 來驅(qū)動(dòng)自定義聊天機(jī)器人、個(gè)人助手和其他 AI 應(yīng)用。

它創(chuàng)造了擁有 5300 億個(gè)參數(shù)的 Megatron-Turing 自然語言生成模型(MT-NLG)。該模型驅(qū)動(dòng)了 2022 年 NVIDIA GTC 大會(huì)上發(fā)表了部分主題演講的“Toy Jensen”虛擬化身。

與 NVIDIA Omniverse 等 3D 平臺(tái)相連的基礎(chǔ)模型將是讓 3D 互聯(lián)網(wǎng)——元宇宙的開發(fā)變得更加簡(jiǎn)單的關(guān)鍵。這些模型將驅(qū)動(dòng)娛樂和工業(yè)用戶的應(yīng)用與資產(chǎn)。

工廠和倉(cāng)庫已在數(shù)字孿生內(nèi)使用基礎(chǔ)模型,依靠這種逼真的模擬尋找更高效的工作方式。

基礎(chǔ)模型可以讓訓(xùn)練在工廠車間和物流中心協(xié)助人類的自動(dòng)駕駛汽車和機(jī)器人變得更輕松,還可以通過創(chuàng)造現(xiàn)實(shí)環(huán)境來幫助訓(xùn)練自動(dòng)駕駛汽車。

基礎(chǔ)模型每天都能出現(xiàn)新的用途,但隨之而來的還有應(yīng)用方面的挑戰(zhàn)。

有幾篇關(guān)于基礎(chǔ)和生成式 AI 模型的論文描述了一些風(fēng)險(xiǎn),比如:

放大用于訓(xùn)練模型的大量數(shù)據(jù)集內(nèi)所隱含的偏見

在圖像或視頻中加入不準(zhǔn)確或誤導(dǎo)性的信息

侵犯現(xiàn)有作品的知識(shí)產(chǎn)權(quán)

斯坦福大學(xué)的一篇關(guān)于基礎(chǔ)模型的論文寫道:“鑒于未來的 AI 系統(tǒng)可能會(huì)嚴(yán)重依賴基礎(chǔ)模型,我們整個(gè)行業(yè)必須共同為基礎(chǔ)模型制定更嚴(yán)格的原則并提供如何負(fù)責(zé)任地開發(fā)和部署基礎(chǔ)模型方面的指導(dǎo)。

目前的一些保障措施包括過濾提示和它們的輸出結(jié)果、在使用中重新校準(zhǔn)模型、清洗大規(guī)模數(shù)據(jù)集等。

NVIDIA 應(yīng)用深度學(xué)習(xí)研究副總裁 Bryan Catanzaro 表示:“這些都是我們這些研究人員正在努力解決的問題。為了真正能夠廣泛部署這些模型,我們必須在安全方面投入大量人力物力。”

這是 AI 研究人員和開發(fā)人員在創(chuàng)造未來的過程中所需要探索的又一個(gè)領(lǐng)域。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4778

    瀏覽量

    101024
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31443

    瀏覽量

    269836
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3295

    瀏覽量

    49038
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1209

    瀏覽量

    24781

原文標(biāo)題:什么是基礎(chǔ)模型?

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項(xiàng)關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓(xùn)練好的大型深度學(xué)習(xí)模型基礎(chǔ)上,使用新的、特定任務(wù)相關(guān)的數(shù)據(jù)
    發(fā)表于 01-14 16:51

    【「大模型啟示錄」閱讀體驗(yàn)】營(yíng)銷領(lǐng)域大模型的應(yīng)用

    今天跟隨「大模型啟示錄」這本書,學(xué)習(xí)在營(yíng)銷領(lǐng)域應(yīng)用大模型。 大模型通過分析大量的消費(fèi)者數(shù)據(jù),包括購(gòu)買歷史、瀏覽記錄、社交媒體互動(dòng)等,能夠識(shí)別消費(fèi)者的偏好和行為模式。這種分析能力有助于企業(yè)更好地理
    發(fā)表于 12-24 12:48

    【「大模型啟示錄」閱讀體驗(yàn)】對(duì)大模型更深入的認(rèn)知

    閱讀《大模型啟示錄》這本書,我得說,它徹底顛覆了我對(duì)大模型的理解。作為一個(gè)經(jīng)常用KIMI和豆包這類AI工具來完成作業(yè)、整理資料的大學(xué)生,我原以為大模型就是這些工具背后的技術(shù)。但這本書讓我意識(shí)到
    發(fā)表于 12-20 15:46

    【「大模型啟示錄」閱讀體驗(yàn)】如何在客服領(lǐng)域應(yīng)用大模型

    在客服領(lǐng)域是大模型落地場(chǎng)景中最多的,也是最容易實(shí)現(xiàn)的。本身客服領(lǐng)域的特點(diǎn)就是問答形式,大模型接入難度低。今天跟隨《大模型啟示錄 》這本書,學(xué)習(xí)大模型在客服領(lǐng)域的改變。選擇大
    發(fā)表于 12-17 16:53

    什么是大模型、大模型是怎么訓(xùn)練出來的及大模型作用

    本文通俗簡(jiǎn)單地介紹了什么是大模型、大模型是怎么訓(xùn)練出來的和大模型的作用。 ? 什么是大模型模型,英文名叫Large Model,大型
    的頭像 發(fā)表于 11-25 09:29 ?2247次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么訓(xùn)練出來的及大<b class='flag-5'>模型</b>作用

    AI大模型與小模型的優(yōu)缺點(diǎn)

    在人工智能(AI)的廣闊領(lǐng)域中,模型作為算法與數(shù)據(jù)之間的橋梁,扮演著至關(guān)重要的角色。根據(jù)模型的大小和復(fù)雜度,我們可以將其大致分為AI大模型和小模型。這兩種
    的頭像 發(fā)表于 07-10 10:39 ?3247次閱讀

    基于MATLAB 的質(zhì)量守恒空化模型(JFO 模型

    可有大佬會(huì)基于MATLAB 的質(zhì)量守恒空化模型(JFO 模型
    發(fā)表于 07-05 23:32

    鴻蒙應(yīng)用模型:【應(yīng)用模型】解析

    應(yīng)用模型是系統(tǒng)為開發(fā)者提供的應(yīng)用程序所需能力的抽象提煉,它提供了應(yīng)用程序必備的組件和運(yùn)行機(jī)制。有了應(yīng)用模型,開發(fā)者可以基于一套統(tǒng)一的模型進(jìn)行應(yīng)用開發(fā),使應(yīng)用開發(fā)更簡(jiǎn)單、高效。
    的頭像 發(fā)表于 05-31 11:38 ?567次閱讀
    鴻蒙應(yīng)用<b class='flag-5'>模型</b>:【應(yīng)用<b class='flag-5'>模型</b>】解析

    【大語言模型:原理與工程實(shí)踐】大語言模型的應(yīng)用

    ,它通過抽象思考和邏輯推理,協(xié)助我們應(yīng)對(duì)復(fù)雜的決策。 相應(yīng)地,我們?cè)O(shè)計(jì)了兩類任務(wù)來檢驗(yàn)大語言模型的能力。一類是感性的、無需理性能力的任務(wù),類似于人類的系統(tǒng)1,如情感分析和抽取式問答等。大語言模型在這
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實(shí)踐】大語言模型的評(píng)測(cè)

    大語言模型的評(píng)測(cè)是確保模型性能和應(yīng)用適應(yīng)性的關(guān)鍵環(huán)節(jié)。從基座模型到微調(diào)模型,再到行業(yè)模型和整體能力,每個(gè)階段都需要精確的評(píng)測(cè)來指導(dǎo)
    發(fā)表于 05-07 17:12

    【大語言模型:原理與工程實(shí)踐】大語言模型的預(yù)訓(xùn)練

    大語言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對(duì)預(yù)訓(xùn)練數(shù)據(jù)的需求也相應(yīng)
    發(fā)表于 05-07 17:10

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    全面剖析大語言模型的核心技術(shù)與基礎(chǔ)知識(shí)。首先,概述自然語言的基本表示,這是理解大語言模型技術(shù)的前提。接著,詳細(xì)介紹自然語言處理預(yù)訓(xùn)練的經(jīng)典結(jié)構(gòu)Transformer,以及其工作原理,為構(gòu)建大語言
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實(shí)踐】揭開大語言模型的面紗

    大語言模型(LLM)是人工智能領(lǐng)域的尖端技術(shù),憑借龐大的參數(shù)量和卓越的語言理解能力贏得了廣泛關(guān)注。它基于深度學(xué)習(xí),利用神經(jīng)網(wǎng)絡(luò)框架來理解和生成自然語言文本。這些模型通過訓(xùn)練海量的文本數(shù)據(jù)集,如
    發(fā)表于 05-04 23:55

    【大語言模型:原理與工程實(shí)踐】探索《大語言模型原理與工程實(shí)踐》

    《大語言模型》是一本深入探討人工智能領(lǐng)域中語言模型的著作。作者通過對(duì)語言模型的基本概念、基礎(chǔ)技術(shù)、應(yīng)用場(chǎng)景分析,為讀者揭開了這一領(lǐng)域的神秘面紗。本書不僅深入討論了語言模型的理論基礎(chǔ),還
    發(fā)表于 04-30 15:35
    主站蜘蛛池模板: 色小姐电影qvod播放| 久久婷婷五月综合色丁香| 亚洲视频在线观看| 欧洲精品不卡1卡2卡三卡四卡| 国内精品自产拍在线少密芽| 99久久蜜臀亚洲AV无码精品| 亚洲欧美自拍清纯中文字幕| 热久久视久久精品2015| 伊人综合在线22| 沙发上小泬12P| 欧美成人亚洲高清在线观看| 寂寞夜晚看免费视频| 国产激情文学| RAPPER性骚扰大开黄腔| 中文字幕在线观看国产| 亚洲欧洲免费三级网站| 小777论坛| 无人区尖叫之夜美女姐姐视频| 日本护士hd| 欧美巨大xxxx做受高清| 玖玖爱这里只有精品视频| 寂寞少妇直播| 韩国演艺圈悲惨在线| 国产老头与老太hd| 国产成人精品视频频| 超碰97超碰在线视频哦| 99久久久免费精品国产| 26uuu老色哥| 中文字幕在线免费观看视频| 一个人在线观看的视频| 一本道久在线综合色姐| 亚洲一区二区女搞男| 亚洲欧洲日产国码中学| 亚洲 视频 在线 国产 精品| 爽爽影院线观看免费| 色噜噜色啪在线视频| 日本超A大片在线观看| 日本A级作爱片金瓶双艳| 欧美午夜特黄AAAAAA片| 琪琪色原网20岁以下热热色原网站| 男女做爽爽爽视频免费软件|