色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

支持 ChatGPT 的機器學習模型的概況

jf_WZTOguxH ? 來源:AI前線 ? 2023-05-26 11:44 ? 次閱讀

本文介紹了支持 ChatGPT 的機器學習模型的概況,文章將從大型語言模型的介紹開始,深入探討用來訓練 GPT-3 的革命性自我注意機制,然后深入研究由人類反饋的強化學習機制這項讓 ChatGPT 與眾不同的新技術。

大型語言模型

ChatGPT 是一類被稱為大型語言模型(LLM)的機器學習自然語言處理模型的延伸。LLM 消化大量文本數據并推斷文本中不同單詞之間的關系。我們看到,隨著計算能力的進步,這些模型在過去幾年中得到了長足發展。隨著輸入數據集和參數空間大小的增長,LLM 的能力也會不斷提升。

語言模型最基本的訓練過程涉及預測單詞序列中的單詞這一操作。最常見的操作類型是對下一 token 的預測以及帶掩碼機制的語言建模。

839d4e02-fb08-11ed-90ce-dac502259ad0.jpg

上圖是本文作者生成的下一 token 預測和帶掩碼機制的語言建模的一般示例。

在這種通常通過長短期記憶(LSTM)模型部署的基本排序技術中,模型使用給定周圍上下文時統計上概率最高的詞來填充空白。這種順序建模結構有兩大局限。

該模型無法給有關聯的一些詞賦予比其他詞更高的權重。在上面的例子中,雖然“reading”可能最常與“hates”聯系在一起,但在數據庫中,“Jacob”可能是一個狂熱的讀者,因此模型應該給予“Jacob”比“reading”更多的權重,并選擇“love”'而不是'hates'。

輸入數據是獨立和順序處理的,而不是作為整個語料庫的一部分來處理的。這意味著當 LSTM 進行訓練時,上下文窗口是固定的,僅擴展到序列中單個輸入的幾步之外。這限制了單詞之間關系的復雜性和可以導出的含義。

針對這個問題,2017 年谷歌大腦的一個團隊引入了 Transformers。與 LSTM 不同,Transformers 可以同時處理所有輸入數據。該模型基于自注意力機制,可以根據語言序列的任何位置為輸入數據的不同部分賦予不同的權重。此特性大大改善了向 LLM 中注入意義的能力,并支持處理更大的數據集。

GPT 和自注意力機制

2018 年,OpenAI 發布了 Generative Pre-training Transformer(GPT)模型的第一個版本 GPT-1。這一模型在 2019 年繼續發展到了 GPT-2,2020 年發展到了 GPT-3,并在 2022 年發展出了 InstructGPT 和 ChatGPT 兩個擴展。在將人類反饋集成到系統之前,GPT 模型進化的最大進步主要是由計算效率的提升推動的,這種提升使得 GPT-3 能夠接受比 GPT-2 多得多的數據來做訓練,從而賦予它更多樣化的知識庫和執行更廣泛任務的能力。

83a656b4-fb08-11ed-90ce-dac502259ad0.jpg

GPT-2(左)和 GPT-3(右)的對比。

所有 GPT 模型都利用了 Transformer 架構,這意味著它們有一個編碼器來處理輸入序列,還有一個解碼器來生成輸出序列。編碼器和解碼器都有一個多頭自注意力機制,允許模型對序列的不同部分進行不同的加權以推斷文本含義和上下文。此外,編碼器利用掩碼語言建模來理解單詞之間的關系,并生成更易于理解的響應。

驅動 GPT 的自注意力機制具體來說,是將 token(文本片段,可以是單詞、句子或其他文本分組)轉換為表示 token 在輸入序列中的重要性的向量。為此,模型需要

為輸入序列中的每個 token 創建查詢、鍵和值向量。

取兩個向量的點積來計算第一步中的查詢向量與其他每一個 token 的鍵向量之間的相似度。

將步驟 2 的輸出輸入 softmax 函數來生成歸一化權重。

將步驟 3 中生成的權重乘以每個 token 的值向量,從而生成一個最終向量,表示 token 在序列中的重要性。

GPT 使用的“多頭”注意力機制是自注意力機制的進化。模型不會只執行上述 1 到 4 步驟一次,而是并行地對這些步驟多次迭代,每次都生成查詢、鍵和值向量的新的線性投影。這種方式擴展了自注意力機制,讓該模型能夠掌握輸入數據中的子含義和更復雜的關系。

83b10a5a-fb08-11ed-90ce-dac502259ad0.jpg

作者生成的 ChatGPT 對話的截圖。

盡管 GPT-3 在自然語言處理方面取得了顯著進步,但它欠缺足夠的符合用戶意圖的能力。例如,GPT-3 可能生成的輸出

缺乏幫助,意思是說輸出不遵循用戶的明確指示。

包含幻覺,指的是不存在或不正確的事實。

缺乏可解釋性,使人類難以理解模型是如何得出特定決策或預測的。

包括有毒或有偏見的內容,指的是有害或令人反感,并傳播錯誤信息的內容。

ChatGPT 中引入了創新的訓練方法,以解決標準 LLM 的一些固有問題。

ChatGPT

ChatGPT 是 InstructGPT 的衍生產品,它引入了一種新穎的方法,將人類反饋納入訓練過程,以使模型輸出與用戶意圖更好地保持一致。OpenAI 在 2022 年發布的論文《訓練語言模型遵循帶有人類反饋的指令》對人類反饋強化學習(RLHF)機制做了深入描述,下文對此做了簡要總結。

第一步:監督微調(SFT)模型

第一項開發工作是通過 OpenAI 招募的 40 家承包商創建的監督訓練數據集來微調 GPT-3 模型,在這一數據集中每個輸入都有已知輸出,供模型學習。輸入,或者叫提示,是從實際用戶輸入到 Open API 的信息中收集的。然后,標注員對提示做出適當的回應,從而為每個輸入創建一個已知的輸出。接下來 OpenAI 使用這個新的監督數據集對 GPT-3 模型進行調整,以創建 GPT-3.5,也稱為 SFT 模型。

為了最大化提示數據集中的多樣性,任何給定的用戶 ID 只能發出 200 個提示,數據集還刪除了所有共享長公共前綴的提示。最后,數據集刪除了所有包含個人身份信息(PII)的提示。

在匯總來自 OpenAI API 的提示后,標注人員還被要求創建一些樣本提示,以填充那些真實樣本數據很少的類別。數據集感興趣的類別包括:

普通提示:任意問題。

Few-shot 提示:包含多個查詢 / 響應對的指令。

基于用戶的提示:對應 OpenAI API 請求的特定用例。

在生成響應時,標注者被要求盡可能推斷用戶指令的具體內容。本文介紹了提示請求信息的三種主要方式。

Direct:“告訴我關于……的信息”

Few-shot:基于這兩個故事的例子,寫另一個關于同一主題的故事。

Continuation:給定一個故事的開頭,完成這個故事。

來自 OpenAI API 的提示匯編和標注人員手寫的提示一共產生了 13,000 個輸入 / 輸出樣本,用于監督模型訓練。

83b7bd0a-fb08-11ed-90ce-dac502259ad0.jpg

圖(左)是從訓練語言模型插入以遵循人類反饋的指令。上圖來自 OpenAI 在 2022 的論文:https://arxiv.org/pdf/2203.02155.pdf。圖(右)附加的上下文是作者添加的。

第二步:獎勵模型

在步驟 1 中訓練 SFT 模型后,該模型會對用戶提示生成更一致的響應。下一個改進是訓練一個獎勵模型,其中模型輸入是一系列提示和響應,輸出是一個縮放值,稱為獎勵(reward)。獎勵模型用來做強化學習,在強化學習中模型學習如何生成最大化其獎勵的輸出(參見步驟 3)。

為了訓練獎勵模型,每個輸入提示會為標注員提供 4 到 9 個 SFT 模型輸出。他們被要求將這些輸出從最好到最差進行排名,創建輸出排名組合,如下:

83bcf1e4-fb08-11ed-90ce-dac502259ad0.jpg

響應排名組合示例。

將模型中的每個組合作為單獨的數據點包括在模型內會導致過擬合(無法推斷超出可見數據的范圍)。為了解決這個問題,該模型是利用每組排名作為單個批處理數據點構建的。

83c26822-fb08-11ed-90ce-dac502259ad0.jpg

圖(左)是從訓練語言模型插入以遵循人類反饋的指令。上圖來自 OpenAI 在 2022 的論文:https://arxiv.org/pdf/2203.02155.pdf。圖(右)附加的上下文是作者添加的。

第三步:強化學習模型

在最后階段,模型會收到隨機提示并返回響應。響應是使用模型在步驟 2 中學習的“策略”生成的。該策略代表了機器已經學會使用的用來實現其目標的策略,這里說的目標就是最大化模型獲得的獎勵。基于在步驟 2 中開發的獎勵模型,接下來要為提示和響應確定一個縮放器獎勵值。然后獎勵會反饋到模型中以改進策略。

2017 年,Schulman 等人引入了近端策略優化(PPO),這種方法用于在生成每個響應時更新模型的策略。PPO 包含來自 SFT 模型的 per-token Kullback–Leibler(KL)懲罰。KL 散度衡量兩個分布函數的相似性,并對極端距離進行懲罰。在這種情況下,使用 KL 懲罰會減少響應與步驟 1 中訓練的 SFT 模型輸出之間的距離,以避免過度優化獎勵模型,避免與人類意圖數據集的偏差太大。

83c81254-fb08-11ed-90ce-dac502259ad0.jpg

圖(左)是從訓練語言模型插入以遵循人類反饋的指令。上圖來自 OpenAI 在 2022 的論文:https://arxiv.org/pdf/2203.02155.pdf。圖(右)附加的上下文是作者添加的。

該過程的第 2 步和第 3 步可以重復進行,但在實踐中并沒有普遍這樣做。

83ccbbe2-fb08-11ed-90ce-dac502259ad0.jpg

作者生成的 ChatGPT 對話的截圖。

模型評估

模型的評估過程是通過在訓練期間留出模型未見過的測試集來執行的。OpenAI 在測試集上進行了一系列評估,以確定該模型是否比其前身 GPT-3 表現更出色。

有用性:模型推斷和遵循用戶指令的能力。在 85±3% 的時間里,標注員更喜歡 InstructGPT 而非 GPT-3 的輸出。

真實性:模型產生幻覺的傾向。當使用 Truthful QA 數據集進行評估時,PPO 模型產生的輸出顯示真實性和信息量略有增加。

無害性:模型避免不當、貶損和詆毀內容的能力。OpenAI 使用 RealToxicityPrompts 數據集測試了模型的無害性。測試在三種條件下進行:

指示模型提供有禮貌的響應:結果毒性反應顯著減少。

指示模型提供響應,沒有任何關于禮貌的設置:毒性沒有顯著變化。

指示模型提供毒性響應:模型給出的響應實際上比 GPT-3 模型的毒性大得多。

要了解關于創建 ChatGPT 和 InstructGPT 所用方法的更多信息,請閱讀 OpenAI 在 2022 年發表的原始論文:https://arxiv.org/pdf/2203.02155.pdf。

83d13f46-fb08-11ed-90ce-dac502259ad0.jpg

審核編輯:彭靜
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3226

    瀏覽量

    48807
  • 機器學習
    +關注

    關注

    66

    文章

    8406

    瀏覽量

    132561
  • ChatGPT
    +關注

    關注

    29

    文章

    1558

    瀏覽量

    7595

原文標題:深入探索ChatGPT機器人背后的模型機制

文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    機器學習模型評估指標

    機器學習模型指標在機器學習建模過程中,針對不同的問題,需采用不同的模型評估指標。
    發表于 09-06 12:51 ?1105次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b>評估指標

    機器學習模型之性能度量

    機器學習模型的性能度量
    發表于 05-12 10:27

    部署基于嵌入的機器學習模型

    1、如何在生產中部署基于嵌入的機器學習模型  由于最近大量的研究,機器學習模型的性能在過去幾年里
    發表于 11-02 15:09

    科技大廠競逐AIGC,中國的ChatGPT在哪?

    最近,AI(人工智能)圈一股以“ChatGPT”為核心的熱潮從美國“硅谷”涌入中國。 2022年11月底,初創公司OpenAI發布了名為ChatGPT的對話式聊天機器模型,一經推出
    發表于 03-03 14:28

    不到1分鐘開發一個GPT應用!各路大神瘋狂整活,網友:ChatGPT就是新iPhone

    這個說法并不準確。盡管ChatGPT等語言模型已經在一定程度上改變了我們獲取信息、學習知識的方式,但它們并不能替代人類進行創造性思考和創造性活動。 雖然一些人可能會利用ChatGPT
    發表于 11-19 12:06

    ChatGPT爆火:谷歌、Meta等壓力大 OpenAI全新聊天機器模型爆火

    ChatGPT爆火:谷歌、Meta等壓力大 OpenAI全新聊天機器模型爆火 人工智能研究實驗室OpenAI于2022年11月30日發布了全新聊天機器
    發表于 01-30 16:28 ?1097次閱讀

    看海泰方圓類ChatGPT技術模型

    ChatGPT,上線2個月便以破億的用戶群引爆了全網。 ChatGPT是由OpenAI公司開發的AI聊天機器人程序,于2022年11月底推出,能夠通過學習和理解人類的語言來進行對話、互
    的頭像 發表于 02-10 10:38 ?721次閱讀

    如何評估機器學習模型的性能?機器學習的算法選擇

    如何評估機器學習模型的性能?典型的回答可能是:首先,將訓練數據饋送給學習算法以學習一個模型。第二
    發表于 04-04 14:15 ?1021次閱讀

    ChatGPT是什么?ChatGPT寫代碼的原理你知道嗎

    "(Generative Pre-trained Transformer),這是一種廣泛用于自然語言處理的深度學習模型ChatGPT是基于這種模型的聊天
    的頭像 發表于 06-04 17:01 ?3188次閱讀

    ChatGPT 是什么

    應用。 ChatGPT基于自然語言處理技術和神經網絡模型,可以學習和理解人類語言的語法和語義,并能夠生成具有連貫性和邏輯性的自然語言文本,從而模擬人類對話的過程。 發展背景 ChatGPT
    發表于 06-27 13:55 ?2487次閱讀

    chatgpt是什么意思 ChatGPT背后的技術原理

      今天我們為大家帶來的文章,深入淺出地闡釋了ChatGPT背后的技術原理,沒有NLP或算法經驗的小伙伴,也可以輕松理解ChatGPT是如何工作的。  ChatGPT是一種機器
    發表于 07-18 17:12 ?0次下載

    機器學習算法匯總 機器學習算法分類 機器學習算法模型

    機器學習算法匯總 機器學習算法分類 機器學習算法模型
    的頭像 發表于 08-17 16:11 ?1098次閱讀

    ChatGPT原理 ChatGPT模型訓練 chatgpt注冊流程相關簡介

    ChatGPT注冊沒有外國手機號驗證怎么辦? ChatGPT作為近期火爆網絡的AI項目,受到了前所未有的關注。我們可以與AI機器人實時聊天,獲得問題的答案。但受ChatGPT服務器及相
    的頭像 發表于 12-06 16:28 ?883次閱讀
    <b class='flag-5'>ChatGPT</b>原理 <b class='flag-5'>ChatGPT</b><b class='flag-5'>模型</b>訓練 <b class='flag-5'>chatgpt</b>注冊流程相關簡介

    llm模型chatGPT的區別

    LLM(Large Language Model)是指大型語言模型,它們是一類使用深度學習技術構建的自然語言處理(NLP)模型。LLM模型可以處理各種語言任務,如文本生成、文本分類、
    的頭像 發表于 07-09 09:55 ?1033次閱讀

    模型LLM與ChatGPT的技術原理

    機器的交互方式。這些技術通過深度學習和自然語言生成(Natural Language Generation, NLG)的結合,實現了對復雜語言任務的高效處理。本文將深入探討大模型LLM和Ch
    的頭像 發表于 07-10 10:38 ?809次閱讀
    主站蜘蛛池模板: 蜜芽视频在线观看视频免费播放| 日韩精品久久日日躁夜夜躁影视| 人妻中文字幕乱人伦在线| 午夜在线观看免费完整直播网| 一级am片欧美| 大屁股国产白浆一二区| 久久精品亚洲精品国产欧美| 日本亚洲电影| 姉调无修版ova国语版| 国产爱豆果冻传媒在线观看| 久久热r在线视频精品| 天堂Av亚洲欧美日韩国产综合| 中文成人在线视频| 国产精品亚洲专区在线播放| 免费果冻传媒2021视频| 亚洲 自拍 清纯 综合图区| 97免费人妻在线观看| 果冻传媒MV免费播放在线观看| 日本老师xxxxx18| 2018久久视频在线视频观看| 国产伦精品一区二区三区免费观看 | 伊人久久大香线蕉综合高清| 纯肉合集(高H)| 美女打开双腿扒开屁股男生| 香蕉动漫库| 成人免费视频一区| 两个人的视频免费| 亚洲国产精品一区二区三区在线观看| seyeye在清在线| 久久婷婷五月综合色丁香| 亚洲高清毛片一区二区| 超碰免费视频caopoom9| 美女被打开了屁股进去的视频 | 一个人视频日本在线观看| 东北真实仑乱| 欧美成人免费观看久久| 艺术片 快播| 国内精品自产拍在线少密芽| 双腿被绑成M型调教PLAY照片| HEYZO精品无码一区二区三区| 久久伊人中文字幕有码|