色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

邱錫鵬團隊提出SpeechGPT:具有內生跨模態能力的大語言模型

CVer ? 來源:CVer ? 2023-05-22 10:19 ? 次閱讀

「 SpeechGPT 為打造真正的多模態大語言模型指明了方向:將不同模態的數據(視覺,語音等)統一表示為離散單元集成在 LLM 之中,在跨模態數據集上經過預訓練和指令微調,來使得模型具有多模態理解和生成的能力,從而離 AGI 更進一步。」—— 復旦大學計算機學院教授邱錫鵬

057569a0-f816-11ed-90ce-dac502259ad0.png

大型語言模型(LLM)在各種自然語言處理任務上表現出驚人的能力。與此同時,多模態大型語言模型,如 GPT-4、PALM-E 和 LLaVA,已經探索了 LLM 理解多模態信息的能力。然而,當前 LLM 與通用人工智能(AGI)之間仍存在顯著差距。首先,大多數當前 LLM 只能感知和理解多模態內容,而不能自然而然地生成多模態內容。其次,像圖像和語音這樣的連續信號不能直接適應接收離散 token 的 LLM。

當前的語音 - 語言(speech-language)模型主要采用級聯模式,即 LLM 與自動語音識別(ASR)模型或文本到語音(TTS)模型串聯連接,或者 LLM 作為控制中心,與多個語音處理模型集成以涵蓋多個音頻或語音任務。一些關于生成式口語語言模型的先前工作涉及將語音信號編碼為離散表示,并使用語言模型對其進行建模。

雖然現有的級聯方法或口語語言模型能夠感知和生成語音,但仍存在一些限制。首先,在級聯模型中,LLM 僅充當內容生成器。由于語音和文本的表示沒有對齊,LLM 的知識無法遷移到語音模態中。其次,級聯方法存在失去語音的附加語言信號(如情感和韻律)的問題。第三,現有的口語語言模型只能合成語音,而無法理解其語義信息,因此無法實現真正的跨模態感知和生成。

在本文中,來自復旦大學的張棟、邱錫鵬等研究者提出了 SpeechGPT,這是一個具有內生跨模態對話能力的大型語言模型,能夠感知和生成多模態內容。他們通過自監督訓練的語音模型對語音進行離散化處理,以統一語音和文本之間的模態。然后,他們將離散的語音 token 擴展到 LLM 的詞匯表中,從而賦予模型感知和生成語音的內生能力。

0598d4a8-f816-11ed-90ce-dac502259ad0.png

論文鏈接:https://arxiv.org/pdf/2305.11000.pdf

demo 地址:https://0nutation.github.io/SpeechGPT.github.io/

GitHub 地址:https://github.com/0nutation/SpeechGPT

為了為模型提供處理多模態指令的能力,研究者構建了第一個語音 - 文本跨模態指令遵循數據集 SpeechInstruct。具體而言,他們將語音離散化為離散單元(discrete unit),并基于現有的 ASR 數據集構建跨模態的單元 - 文本(unit-text)對。同時,他們使用 GPT-4 構建了針對多個任務的數百個指令,以模擬實際用戶的指令,具體見附錄 B。此外,為了進一步增強模型的跨模態能力,他們設計了「Chain-of-Modality」指令數據,即模型接收語音命令,用文本思考過程,然后以語音形式輸出響應。

為了實現更好的跨模態遷移和高效的訓練,SpeechGPT 經歷了三個階段的訓練過程:模態適應預訓練、跨模態指令微調和 chain-of-modality 指令微調。第一階段通過離散語音單元連續任務實現了 SpeechGPT 的語音理解能力。第二階段利用 SpeechInstruct 改進了模型的跨模態能力。第三階段利用參數高效的 LoRA 微調進行進一步的模態對齊。

為了評估 SpeechGPT 的有效性,研究者進行了廣泛的人工評估和案例分析,以評估 SpeechGPT 在文本任務、語音 - 文本跨模態任務和口語對話任務上的性能。結果表明,SpeechGPT 在單模態和跨模態指令遵循任務以及口語對話任務方面展現出強大的能力。

05d3df08-f816-11ed-90ce-dac502259ad0.png

SpeechInstruct

由于公開可用的語音數據的限制和語音 - 文本任務的多樣性不足,研究者構建了 SpeechInstruct,這是一個語音 - 文本跨模態指令遵循數據集。該數據集分為兩個部分,第一部分叫做跨模態指令,第二部分叫做 Chain-of-Modality 指令。SpeechInstruct 的構建過程如圖 2 所示。

0602e05a-f816-11ed-90ce-dac502259ad0.png

SpeechGPT

研究者設計了一個統一的框架,以實現不同模態之間的架構兼容性。如圖 2 所示,他們的模型有三個主要組件:離散單元提取器、大型語言模型和單元聲碼器。在這個架構下,LLM 可以感知多模態輸入并生成多模態輸出。

離散單元提取器

離散單元提取器利用 Hidden-unit BERT(HuBERT)模型將連續的語音信號轉換為一系列離散單元的序列。

HuBERT 是一個自監督模型,它通過對模型的中間表示應用 k-means 聚類來為掩蔽的音頻片段預測離散標簽進行學習。它結合了 1-D 卷積層和一個 Transformer 編碼器,將語音編碼為連續的中間表示,然后使用 k-means 模型將這些表示轉換為一系列聚類索引的序列。隨后,相鄰的重復索引被移除,得到表示為063268de-f816-11ed-90ce-dac502259ad0.png的離散單元序列,K 表示聚類總數。

大型語言模型

研究者采用 Meta AI 的 LLaMA 模型作為他們的大型語言模型。LLaMA 包括一個嵌入層、多個 Transformer 塊和一個語言模型頭層。LLaMA 的參數總數范圍從 7B 到 65B 不等。通過使用包含 1.0 萬億 token 的大規模訓練數據集,LLaMA 在各種自然語言處理基準測試中展現出與規模更大的 175B GPT-3 相當的性能。

單元聲碼器

由于 (Polyak et al., 2021) 中單個說話人單元聲碼器的限制,研究者訓練了一個多說話人單元的 HiFi-GAN,用于從離散表示中解碼語音信號。HiFi-GAN 的架構包括一個生成器 G 和多個判別器 D。生成器使用查找表(Look-Up Tables,LUT)來嵌入離散表示,并通過一系列由轉置卷積和具有擴張層的殘差塊組成的模塊對嵌入序列進行上采樣。說話人嵌入被連接到上采樣序列中的每個幀上。判別器包括一個多周期判別器(Multi-Period Discriminator,MPD)和一個多尺度判別器(Multi-Scale Discriminator,MSD),其架構與 (Polyak et al., 2021) 相同。

實驗

跨模態指令遵循

如表 1 所示,當提供不同的指令時,模型能夠執行相應的任務并根據這些輸入生成準確的輸出。

064817b0-f816-11ed-90ce-dac502259ad0.png

口語對話

表 2 展示了 SpeechGPT 的 10 個口語對話案例。對話表明,在與人類的交互中,SpeechGPT 能夠理解語音指令并用語音作出相應回應,同時遵守「HHH」標準(無害、有幫助、誠實)。

0685cdbc-f816-11ed-90ce-dac502259ad0.png

局限性

盡管 SpeechGPT 展示出令人印象深刻的跨模態指令遵循和口語對話能力,但仍存在一些限制:

它不考慮語音中的語音外語言信息,例如無法以不同的情緒語調生成回應;

它在生成基于語音的回應之前需要生成基于文本的回應;

由于上下文長度的限制,它無法支持多輪對話。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模態
    +關注

    關注

    0

    文章

    8

    瀏覽量

    6255
  • 語言模型
    +關注

    關注

    0

    文章

    521

    瀏覽量

    10268
  • 數據集
    +關注

    關注

    4

    文章

    1208

    瀏覽量

    24691

原文標題:邱錫鵬團隊提出SpeechGPT:具有內生跨模態能力的大語言模型

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【大語言模型:原理與工程實踐】探索《大語言模型原理與工程實踐》

    的未來發展方向進行了展望,包括領域、模態和自動提示生成能力方向,為讀者提供了對未來技術發展的深刻見解。《大語言
    發表于 04-30 15:35

    簡單的模型進行流固耦合的模態分析

    。聲腔的第一階自由模態為剛體模態,聲腔各點的聲壓幅值相同;結構自由模態前6階為6個自由度的剛體模態。要注意,在這里我們使用nastran求
    發表于 07-07 17:15

    可提高模態行人重識別算法精度的特征學習框架

    化的問題,設計了模態間三元組損失及模態內三元組損失,以配合全局三元組損失進行模型訓練。在改進困難三元組損失的基礎上,首次在模態行人重識別
    發表于 05-10 11:06 ?9次下載

    基于預訓練視覺-語言模型模態Prompt-Tuning

    了各種模態任務。 然而,作者注意到模型pre-training和finetune的客觀形式之間存在顯著差距,導致需要大量標記數據來刺激 VL-PTMs 對下游任務的視覺基礎能力。 為
    的頭像 發表于 10-09 15:10 ?3233次閱讀
    基于預訓練視覺-<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的<b class='flag-5'>跨</b><b class='flag-5'>模態</b>Prompt-Tuning

    ACL2021的視覺語言模態論文之視覺語言模態任務與方法

    來自:復旦DISC 引言 本次分享我們將介紹三篇來自ACL2021的視覺語言模態的論文。這三篇文章分別介紹了如何在圖像描述任務中生成契合用戶意圖的圖像描述、端對端的視覺語言預訓練
    的頭像 發表于 10-13 10:48 ?2511次閱讀
    ACL2021的<b class='flag-5'>跨</b>視覺<b class='flag-5'>語言</b><b class='flag-5'>模態</b>論文之<b class='flag-5'>跨</b>視覺<b class='flag-5'>語言</b><b class='flag-5'>模態</b>任務與方法

    百圖科AIGP平臺發布:提供多種蛋白質生成能力,邀伙伴聯手開發“新物種”

    近日,ChatGPT和文心一言等超大規模預訓練模型紛紛登場,讓我們看到了AI破解人類自然語言的力量。 成立兩年多以來,BioMap百圖科一直致力于打造生命科學領域的AI大模型,構建了
    的頭像 發表于 03-27 17:11 ?924次閱讀
    百圖<b class='flag-5'>生</b>科AIGP平臺發布:提供多種蛋白質生成<b class='flag-5'>能力</b>,邀伙伴聯手開發“新物種”

    利用大語言模型做多模態任務

    大型語言模型LLM(Large Language Model)具有很強的通用知識理解以及較強的邏輯推理能力,但其只能處理文本數據。
    的頭像 發表于 05-10 16:53 ?1046次閱讀
    利用大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>做多<b class='flag-5'>模態</b>任務

    團隊提出具有模態能力SpeechGPT,為多模態LLM指明方向

    大型語言模型(LLM)在各種自然語言處理任務上表現出驚人的能力。與此同時,多模態大型語言
    的頭像 發表于 05-22 14:38 ?681次閱讀
    <b class='flag-5'>邱</b><b class='flag-5'>錫</b><b class='flag-5'>鵬</b><b class='flag-5'>團隊</b><b class='flag-5'>提出具有</b><b class='flag-5'>內</b><b class='flag-5'>生</b><b class='flag-5'>跨</b><b class='flag-5'>模態</b><b class='flag-5'>能力</b>的<b class='flag-5'>SpeechGPT</b>,為多<b class='flag-5'>模態</b>LLM指明方向

    650億參數,8塊GPU就能全參數微調!團隊把大模型門檻打下來了!

    在上周復旦大學團隊提交的論文《Full Parameter Fine-tuning for Large Language Models with Limited Resource
    的頭像 發表于 06-21 14:00 ?854次閱讀
    650億參數,8塊GPU就能全參數微調!<b class='flag-5'>邱</b><b class='flag-5'>錫</b><b class='flag-5'>鵬</b><b class='flag-5'>團隊</b>把大<b class='flag-5'>模型</b>門檻打下來了!

    VisCPM:邁向多語言模態模型時代

    隨著 GPT-4 和 Stable Diffusion 等模型模態能力的突飛猛進,多模態模型已經成為大
    的頭像 發表于 07-10 10:05 ?712次閱讀
    VisCPM:邁向多<b class='flag-5'>語言</b>多<b class='flag-5'>模態</b>大<b class='flag-5'>模型</b>時代

    更強更通用:智源「悟道3.0」Emu多模態模型開源,在多模態序列中「補全一切」

    熱度。Flamingo 具備強大的多模態上下文少樣本學習能力。 Flamingo 走的技術路線是將大語言模型與一個預訓練視覺編碼器結合,并插入可學習的層來捕捉
    的頭像 發表于 07-16 20:45 ?718次閱讀
    更強更通用:智源「悟道3.0」Emu多<b class='flag-5'>模態</b>大<b class='flag-5'>模型</b>開源,在多<b class='flag-5'>模態</b>序列中「補全一切」

    北大&amp;華為提出:多模態基礎大模型的高效微調

    深度學習的大模型時代已經來臨,越來越多的大規模預訓練模型在文本、視覺和多模態領域展示出杰出的生成和推理能力。然而大模型巨大的參數量有兩個明顯
    的頭像 發表于 11-08 16:20 ?957次閱讀
    北大&amp;華為<b class='flag-5'>提出</b>:多<b class='flag-5'>模態</b>基礎大<b class='flag-5'>模型</b>的高效微調

    從Google多模態模型看后續大模型應該具備哪些能力

    前段時間Google推出Gemini多模態模型,展示了不凡的對話能力和多模態能力,其表現究竟如何呢?
    的頭像 發表于 12-28 11:19 ?1263次閱讀
    從Google多<b class='flag-5'>模態</b>大<b class='flag-5'>模型</b>看后續大<b class='flag-5'>模型</b>應該具備哪些<b class='flag-5'>能力</b>

    自動駕駛和多模態語言模型的發展歷程

    模態語言模型(MLLM) 最近引起了廣泛的關注,其將 LLM 的推理能力與圖像、視頻和音頻數據相結合,通過多模態對齊使它們能夠更高效地執
    發表于 12-28 11:45 ?520次閱讀
    自動駕駛和多<b class='flag-5'>模態</b>大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的發展歷程

    機器人基于開源的多模態語言視覺大模型

    ByteDance Research 基于開源的多模態語言視覺大模型 OpenFlamingo 開發了開源、易用的 RoboFlamingo 機器人操作模型,只用單機就可以訓練。
    發表于 01-19 11:43 ?408次閱讀
    機器人基于開源的多<b class='flag-5'>模態</b><b class='flag-5'>語言</b>視覺大<b class='flag-5'>模型</b>
    主站蜘蛛池模板: 村上里沙快播| 成年人视频在线免费看| 中文字幕中文字幕永久免费| 中文字幕免费在线视频| 99国产强伦姧在线看RAPE| pkf女尸studiosxnxx| 囯产精品久久久久久久久免费蜜桃 | 5g天天奭视频| a视频在线看| 国产成人免费高清视频| 黑人操日本女人| 久久影院中文字幕| 秋霞电影网视频一区二区三区| 入禽太深在线观看免费高清| 亚洲 欧美 国产 综合 播放| 欲插爽乱浪伦骨| va亚洲va天堂va视频在线| 国产精品一国产精品免费| 久久国产精品久久国产精品| 欧美506070| 亚洲国产AV精品卡一卡二| 中文乱码35页在线观看| 成人免费视频在线| 好湿好滑好硬好爽好深视频| 男人扒开添女人下部口述| 甜性涩爱在线看| 尤蜜网站在线进入免费| 爱情岛论坛网亚洲品质| 国自精品三七区| 热久久免费频精品99热| 亚洲精品视频在线免费| 99久久久无码国产精品免费人妻| 国产精品无码无卡毛片不卡视| 麻豆人妻无码性色AV| 午夜福利92看看电影80| 91桃色污无限免费看| 国产精品无码久久av| 嗯啊不要老师| 亚洲精品一区二区在线看片| FREE性丰满HD毛多多| 久久AV国产麻豆HD真实|