色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

與ChatGPT性能最相匹配的開源模型

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 2023-04-06 10:16 ? 次閱讀

前言

最近由UC Berkeley、CMU、Stanford, 和 UC San Diego的研究人員創(chuàng)建的 Vicuna-13B,通過(guò)在 ShareGPT 收集的用戶共享對(duì)話數(shù)據(jù)中微調(diào) LLaMA獲得。其中使用 GPT-4 進(jìn)行評(píng)估,發(fā)現(xiàn)Vicuna-13B 的性能達(dá)到了ChatGPT 和 Bard 的 90% 以上,同時(shí)在 90% 情況下都優(yōu)于 LLaMA 和 Alpaca 等其他模型。訓(xùn)練 Vicuna-13B 的費(fèi)用約為 300 美元。訓(xùn)練和代碼[1]以及在線演示[2]已公開。

Vicuna到底怎么樣?

Vicuna在官網(wǎng)中通過(guò)和Alpaca、LLaMA、ChatGPT和Bard對(duì)比,然后通過(guò)GPT4當(dāng)裁判來(lái)打出分?jǐn)?shù),具體如下。

13c714ec-d401-11ed-bfe3-dac502259ad0.png

問(wèn)題

13de1fde-d401-11ed-bfe3-dac502259ad0.png

Alpaca-13b vs Vicuna

140b2c9a-d401-11ed-bfe3-dac502259ad0.png

LLaMA-13b vs Vicuna

1430ff2e-d401-11ed-bfe3-dac502259ad0.png

ChatGPT vs Vicuna

1454ff3c-d401-11ed-bfe3-dac502259ad0.png

Bard vs Vicuna

可以看出,Vicuna的回答還是非常棒的,讓GPT4來(lái)打分,Vicuna和ChatGPT是十分接近的,遠(yuǎn)遠(yuǎn)高于Alpaca和LLaMA。

如果大家想試試別的問(wèn)題,可以自己去嘗試[3]哈。

1476f48e-d401-11ed-bfe3-dac502259ad0.png

可換不同類型的不同問(wèn)題

然而,官方認(rèn)為評(píng)估聊天機(jī)器人絕非易事,聽(tīng)過(guò)GPT4進(jìn)行評(píng)估是一件十分不嚴(yán)格的事情,但是目前還是無(wú)法解決評(píng)估的問(wèn)題,需要后續(xù)學(xué)者進(jìn)行進(jìn)一步探索。

148f1b54-d401-11ed-bfe3-dac502259ad0.png

圖1 GPT-4 評(píng)估

在線demo

14a82ec8-d401-11ed-bfe3-dac502259ad0.png

概述

14cef7ec-d401-11ed-bfe3-dac502259ad0.png

圖2 工作流

圖 2 介紹了整體工作流程。訓(xùn)練是在一天時(shí)間在 8 個(gè) A100 上使用 PyTorch FSDP 完成的。 LLaMA、Alpaca、ChatGPT 和 Vicuna 的詳細(xì)比較如表 1 所示。

14f36212-d401-11ed-bfe3-dac502259ad0.png

表1 一些模型的對(duì)比

訓(xùn)練

Vicuna 是通過(guò)使用從 ShareGPT.com 使用公共 API 收集的大約 7萬(wàn) 用戶共享對(duì)話微調(diào) LLaMA 基礎(chǔ)模型創(chuàng)建的。為了確保數(shù)據(jù)質(zhì)量,將 HTML 轉(zhuǎn)換回 markdown 并過(guò)濾掉一些不合適或低質(zhì)量的樣本。此外,將冗長(zhǎng)的對(duì)話分成更小的部分,以適應(yīng)模型的最大上下文長(zhǎng)度。

訓(xùn)練方法建立在斯坦福alpaca的基礎(chǔ)上,并進(jìn)行了以下改進(jìn)。

內(nèi)存優(yōu)化:為了使 Vicuna 能夠理解長(zhǎng)上下文,將最大上下文長(zhǎng)度從alpaca 中的 512 擴(kuò)展到 2048。還通過(guò)gradient checkpointingflash attentio來(lái)解決內(nèi)存壓力。

多輪對(duì)話調(diào)整訓(xùn)練損失考慮多輪對(duì)話,并僅根據(jù)聊天機(jī)器人的輸出進(jìn)行微調(diào)。

通過(guò) Spot 實(shí)例降低成本:使用 SkyPilot 托管點(diǎn)來(lái)降低成本。該解決方案將 7B 模型的訓(xùn)練成本從 500 美元削減至 140 美元左右,將 13B 模型的訓(xùn)練成本從 1000 美元左右削減至 300 美元。

150d9588-d401-11ed-bfe3-dac502259ad0.png

圖3 通過(guò)GPT4來(lái)評(píng)估打分

153299aa-d401-11ed-bfe3-dac502259ad0.png

通過(guò)GPT4評(píng)估得出的總分






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    212

    文章

    28935

    瀏覽量

    209712
  • CMU
    CMU
    +關(guān)注

    關(guān)注

    0

    文章

    21

    瀏覽量

    15301
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    365

    瀏覽量

    15645
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1579

    瀏覽量

    8305

原文標(biāo)題:Vicuna:與ChatGPT 性能最相匹配的開源模型

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    開源模型DeepSeek的開放內(nèi)容詳析

    當(dāng)大家討論為什么 DeepSeek 能夠形成全球刷屏之勢(shì),讓所有廠商、平臺(tái)都集成之時(shí),「開源」成為了最大的關(guān)鍵詞之一,圖靈獎(jiǎng)得主 Yann LeCun 稱其是「開源的勝利」。模型開源
    的頭像 發(fā)表于 02-19 09:48 ?673次閱讀
    <b class='flag-5'>開源</b>大<b class='flag-5'>模型</b>DeepSeek的開放內(nèi)容詳析

    【「大模型啟示錄」閱讀體驗(yàn)】+開啟智能時(shí)代的新鑰匙

    閱讀之旅。在翻開這本書之前,我對(duì)大模型的認(rèn)知僅僅停留在它是一種強(qiáng)大的人工智能技術(shù),可以進(jìn)行自然語(yǔ)言處理、圖像識(shí)別等任務(wù)。我知道像 ChatGPT 這樣的應(yīng)用是基于大模型開發(fā)的,能夠與人類進(jìn)行較為流暢
    發(fā)表于 12-24 13:10

    開源AI模型庫(kù)是干嘛的

    開源AI模型庫(kù)是指那些公開源代碼、允許自由訪問(wèn)和使用的AI模型集合。這些模型通常經(jīng)過(guò)訓(xùn)練,能夠執(zhí)行特定的任務(wù)。以下,是對(duì)
    的頭像 發(fā)表于 12-14 10:33 ?430次閱讀

    開源與閉源之爭(zhēng):最新的開源模型到底還落后多少?

    一,引言 隨著人工智能(AI)技術(shù)的迅猛發(fā)展,大模型已經(jīng)成為推動(dòng)科技進(jìn)步的重要力量。然而,超大規(guī)模模型在帶來(lái)高性能的同時(shí),也面臨著資源消耗大、部署困難等問(wèn)題。本文將探討AI大模型未來(lái)的
    的頭像 發(fā)表于 11-15 11:16 ?487次閱讀
    <b class='flag-5'>開源</b>與閉源之爭(zhēng):最新的<b class='flag-5'>開源</b><b class='flag-5'>模型</b>到底還落后多少?

    ChatGPT:怎樣打造智能客服體驗(yàn)的重要工具?

    用戶反饋和評(píng)估ChatGPT性能。根據(jù)用戶的需求和反饋,不斷優(yōu)化模型和改進(jìn)客服體驗(yàn)。7.人工智能與人工混合:將ChatGPT與人工客服團(tuán)隊(duì)結(jié)合使用,形成人工智能與人工混合的客服模式。
    的頭像 發(fā)表于 11-01 11:12 ?279次閱讀
    <b class='flag-5'>ChatGPT</b>:怎樣打造智能客服體驗(yàn)的重要工具?

    如何提升 ChatGPT 的響應(yīng)速度

    同時(shí)進(jìn)行,從而減少總體響應(yīng)時(shí)間。 模型壓縮 :通過(guò)模型壓縮技術(shù),如量化、剪枝等,可以減少模型的大小,從而加快模型的加載和推理速度。 知識(shí)蒸餾 :將大型
    的頭像 發(fā)表于 10-25 17:39 ?1087次閱讀

    怎樣搭建基于 ChatGPT 的聊天系統(tǒng)

    搭建一個(gè)基于ChatGPT的聊天系統(tǒng)是一個(gè)涉及多個(gè)步驟的過(guò)程,包括理解ChatGPT的API、設(shè)計(jì)用戶界面、處理數(shù)據(jù)和集成ChatGPT模型。以下是一個(gè)簡(jiǎn)化的指南,用于創(chuàng)建一個(gè)基本的聊
    的頭像 發(fā)表于 10-25 16:23 ?698次閱讀

    如何使用 ChatGPT 進(jìn)行內(nèi)容創(chuàng)作

    ChatGPT平臺(tái)。 選擇模型ChatGPT目前支持GPT3.5和GPT4兩個(gè)模型。根據(jù)創(chuàng)作需求,選擇合適的模型。一般來(lái)說(shuō),GPT4
    的頭像 發(fā)表于 10-25 16:08 ?653次閱讀

    澎峰科技高性能模型推理引擎PerfXLM解析

    ChatGPT問(wèn)世以來(lái),大模型遍地開花,承載大模型應(yīng)用的高性能推理框架也不斷推出,大有百家爭(zhēng)鳴之勢(shì)。在這種情況下,澎峰科技作為全球領(lǐng)先的智能計(jì)算服務(wù)提供商,在2023年11月25日發(fā)
    的頭像 發(fā)表于 09-29 10:14 ?871次閱讀
    澎峰科技高<b class='flag-5'>性能</b>大<b class='flag-5'>模型</b>推理引擎PerfXLM解析

    模型LLM與ChatGPT的技術(shù)原理

    在人工智能領(lǐng)域,大模型(Large Language Model, LLM)和ChatGPT等自然語(yǔ)言處理技術(shù)(Natural Language Processing, NLP)正逐步改變著人類
    的頭像 發(fā)表于 07-10 10:38 ?1182次閱讀

    llm模型chatGPT的區(qū)別

    ,有許多不同的LLM模型,如BERT、GPT、T5等。 ChatGPT是一種基于GPT(Generative Pre-trained Transformer)模型的聊天機(jī)器人。GPT模型
    的頭像 發(fā)表于 07-09 09:55 ?1512次閱讀

    名單公布!【書籍評(píng)測(cè)活動(dòng)NO.34】大語(yǔ)言模型應(yīng)用指南:以ChatGPT為起點(diǎn),從入門到精通的AI實(shí)踐教程

    ,包括開源和閉源兩類。閉源模型的代表有OpenAI 的 GPT 系列和 Anthropic 的 Claude 系列。毫無(wú)疑問(wèn),目前 OpenAI 的 GPT 系列模型在整個(gè)行業(yè)中處于領(lǐng)先地位,其
    發(fā)表于 06-03 11:39

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來(lái)了

    當(dāng)?shù)貢r(shí)間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強(qiáng)大基礎(chǔ)上,這種迭代擁有顯著的改進(jìn)。在發(fā)布會(huì)的演示中,OpenAI展示該模型的高級(jí)
    發(fā)表于 05-27 15:43

    【Longan Pi 3H 開發(fā)板試用連載體驗(yàn)】給ChatGPT裝上眼睛,還可以語(yǔ)音對(duì)話

    結(jié)果整合,整合后再輸入ChatGPT或其他大語(yǔ)言模型。最后再將大語(yǔ)言模型的輸出結(jié)果利用TTS轉(zhuǎn)化為語(yǔ)音進(jìn)行播放。實(shí)現(xiàn)Chatgpt多模態(tài)輸入(圖像輸入,語(yǔ)音輸入),在賦予
    發(fā)表于 04-12 12:41

    在FPGA設(shè)計(jì)中是否可以應(yīng)用ChatGPT生成想要的程序呢

    當(dāng)下AI人工智能崛起,很多開發(fā)領(lǐng)域都可看到ChatGPT的身影,F(xiàn)PGA設(shè)計(jì)中,是否也可以用ChatGPT輔助設(shè)計(jì)呢?
    發(fā)表于 03-28 23:41
    主站蜘蛛池模板: 亚洲色欲色欲综合网站 | 在线视频免费国产成人 | 亚洲欧美国产旡码专区 | 第一次处破女高清电影 | 被免费网站在线视频 | 欧美极限变态扩张video | 亚洲精品第一页 | 美女教师朝桐光在线播放 | 人妻 中文无码 中出 | 成年无码av片 | 成人免费精品视频 | 成人高清护士在线播放 | 日韩欧美群交P内射捆绑 | 全彩无翼污之邪恶女教师 | 羞羞在线观看 | 99久久久精品免费观看国产 | 啦啦啦视频在线观看WWW | 成年女人免费影院播放 | 91九色麻豆 | 一个人免费视频在线观看 | 二次元美女扒开内裤喷水 | 秋霞三级理伦免费观看 | 亚州中文字幕 | 国产精品视频yy9099 | 92精品国产成人观看免费 | 精品免费视在线视频观看 | 国外经典三级 | 九九九九九热 | 一区二区乱子伦在线播放 | 媚药调教被撑到合不拢h | 777米奇色狠狠俺去啦 | 97在线看视频福利免费 | 娇小亚裔被两个黑人 | 国产精品观看视频免费完整版 | 无人区日本电影在线观看 | 热久久免费频精品99热 | 一个人视频日本在线观看 | 无码成A毛片免费 | 亚洲欧美另类无码专区 | 强奷乱码中文字幕熟女免费 | 国产精品久久久久影院嫩草 |