色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

從ID-based到LLM-based:可遷移推薦系統(tǒng)發(fā)展

智能感知與物聯(lián)網技術研究所 ? 來源:未知 ? 2023-11-12 22:00 ? 次閱讀

wKgaomVQ25GAOc1GAAQ6oOGY_2g553.png

Paper List:https://github.com/westlake-repl/Recommendation-Systems-without-Explicit-ID-Features-A-Literature-Review

wKgaomVQ25KAbYLtAAAl6LOgh3c145.png可遷移推薦系統(tǒng)發(fā)展歷程

推薦系統(tǒng)的核心目標是通過建模用戶的歷史行為預測最有可能交互的下一個目標。而這一目標在用戶交互記錄較少的情況下尤為困難,即長期困擾推薦系統(tǒng)領域發(fā)展的冷啟動問題。在這些新用戶很少并且其交互序列有限的新推薦系統(tǒng)場景中,前期的模型訓練往往缺乏足夠的樣本數(shù)據。對有限訓練數(shù)據的建模也必然無法獲得用戶滿意的推薦結果,使得平臺成長受到很大阻礙。

遷移學習是學術界和工業(yè)界為了解決這一問題所一直關注的解決方案。如果可以向新場景中引入預先訓練到的知識幫助建模用戶序列或加速建模速度,這將極大緩解下游新場景中冷啟動問題帶來的巨大成本。

為此,對可遷移推薦系統(tǒng)的研究幾乎貫穿了推薦系統(tǒng)領域發(fā)展的每一個階段。從基于物品 ID 和用戶 ID 的矩陣分解時代,可遷移推薦系統(tǒng)必須基于上下游場景的數(shù)據覆蓋實現(xiàn)基于 ID 的推薦系統(tǒng)遷移學習。

到近幾年模態(tài)理解技術發(fā)展迅猛,研究人員逐漸轉向利用純模態(tài)信息建模用戶序列,從而實現(xiàn)在上下游場景沒有數(shù)據覆蓋的情況下實現(xiàn)可遷移推薦系統(tǒng)。再到當下利用大規(guī)模預訓練語言模型(LLM)完成 ‘one-for-all’ 的推薦系統(tǒng)大模型得到大量關注。可遷移推薦系統(tǒng)乃至推薦系統(tǒng)大模型的研究已成為推薦系統(tǒng)領域發(fā)展的下一個方向。

wKgaomVQ25KAIg_TAAAuhh9-KLM251.png

基于ID的可遷移推薦系統(tǒng)

第一階段是矩陣分解時代,使用 ID embedding 來建模物品的協(xié)同過濾算法是推薦系統(tǒng)的主流范式,并在之后的 15 年間主導了整個推薦系統(tǒng)社區(qū)。經典架構包括:雙塔架構、CTR 模型、會話和序列推薦、Graph 網絡。他們無不采用 ID embedding 來對物品進行建模,整個推薦系統(tǒng)現(xiàn)有的 SOTA 體系也幾乎都是采用基于 ID 特征的建模手段。

這一階段,可遷移推薦系統(tǒng)自然依靠 ID 實現(xiàn),而且必須在上下游場景之間有數(shù)據重疊,即要求不同數(shù)據集之間存在共同用戶或者物品,例如大公司里存在多個業(yè)務場景, 通過老的業(yè)務引流新的業(yè)務。這一階段的早期工作有 PeterRec [1](SIGIR2020)、Conure [2](SIGIR2021)和 CLUE [3] (ICDM2021)等。

wKgaomVQ25KARutKAAQs6Fm8hIk392.png

PeterRec 是推薦系統(tǒng)領域首篇論文明確提出基于自監(jiān)督預訓練(自回歸與 Mask 語言模型)的用戶表征具備通用性,并清晰地呈現(xiàn)出該預訓練的通用表征可用于跨域推薦和用戶畫像預測,顯著提升性能,其中,采用用戶畫像預測評估用戶表征的通用性被后續(xù)相關論文廣泛沿用。

同時,PeterRec 提出,通用型用戶模型在下游任務遷移過程,應該做到參數(shù)有效共享(公司往往有上百種用戶畫像要預測,數(shù)十個業(yè)務推薦場景),并引入基于 Adapter 技術,也是推薦系統(tǒng)首次采用 Adapter,通過微調模型補丁實現(xiàn)不同任務有效遷移學習。另外,PeterRec 還發(fā)布了一套大規(guī)模的跨域推薦系統(tǒng)數(shù)據集。

wKgaomVQ25KASmR-AAHZd-i50qU618.png

Conure 是推薦系統(tǒng)領域首個用戶通用表征的終生學習(lifelong learning)模型,首次提出一個模型連續(xù)學習和同時服務多個不同的下游任務。作者提出的‘一人一世界’概念啟發(fā)了當下推薦系統(tǒng) one4all 模型的研究。

wKgaomVQ25KAPEA0AAEtmV1G9yU674.png

CLUE 認為 PeterRec 與 Conure 算法在學習用戶表征時,采用自回歸或者 mask 機制都是基于物品粒度的預測,而最優(yōu)的用戶表征顯然應該是對完整的用戶序列進行建模和訓練,因此結合對比學習,獲得了更優(yōu)的結果。

wKgaomVQ25KABf0lAAV_QF5xruw256.png

這期間有一些同時期或者 future work,包括阿里的 Star 模型(One Model to Serve All: Star Topology Adaptive Recommender for Multi-Domain CTR Prediction),以及 ShopperBERT 模型 (One4all User Representation for Recommender Systems in E-commerce)。

wKgaomVQ25KAP925AAAtJ0fTuoM601.png

基于模態(tài)信息的可遷移推薦系統(tǒng)

以上工作基于共享(用戶或者物品)ID 方式實現(xiàn)領域之間的遷移性和跨域推薦,比較適用于公司內部不同業(yè)務之間, 而現(xiàn)實中不同推薦系統(tǒng)很難共享用戶與 item 的 ID 信息,使得跨平臺推薦這一類研究具有明顯的局限性。

相比之下,深度學習的其他社區(qū),如自然語言處理(NLP)與計算機視覺(CV)領域近幾年已經涌現(xiàn)出一系列有影響力的通用型大模型,又稱基礎模型(foundation model),如 BERT、GPT、Vision Transformer 等。相比推薦系統(tǒng) ID 特征,NLP 與 CV 任務基于多模態(tài)文本與圖像像素特征,可以較好的實現(xiàn)模型在不同任務之間的復用與遷移。

替換 ID 特征、基于模態(tài)內容實現(xiàn)不同系統(tǒng)與平臺之間的遷移是該階段的主流方向。這一階段的代表性工作有 TransRec [4]、MoRec [5](SIGIR2023)、AdapterRec [6](WSDM2024)、NineRec [7] 等。另外,同時期的工作還有人大趙鑫老師團隊 UnisRec 以及張永峰老師團隊的 P5。

wKgaomVQ25OAHQPrAAHAOmMheS0048.png

TransRec 是首個研究混合模態(tài)遷移的推薦系統(tǒng)模型,也是首次考慮圖像像素的遷移學習模型。TransRec 采用端到端訓練方式,而不是直接抽取離線 item 多模態(tài)表征。

與基于 ID 的序列推薦模型比較,經過 finetune 的 TransRec 可以有效提升推薦結果。TransRec 證實了大規(guī)模數(shù)據上利用混合模態(tài)信息預訓練可以有效學習用戶和物品的關系,并且可以遷移到下游推薦任務,實現(xiàn)通用推薦,論文還研究了 scaling effect 效果,并會發(fā)布多套多模態(tài)數(shù)據集。與 TransRec 同時期的工作是人大趙鑫老師團隊 UnisRec,UnisRec 主要聚焦 text 模態(tài)。

wKgaomVQ25OAbN-7AAH-vX3gs8c675.png

wKgaomVQ25OAeE8EAAGWXQzFbZg333.png

MoRec 首次系統(tǒng)性回答了使用最先進的模態(tài)編碼器表征物品(MoRec)是否能取代經典的 itemID embedding 范式(DRec)這一問題。論文基于 MoRec 與 IDRec 的公平比較展開:如果在冷熱場景下 MoRec 都能打敗 IDRec,那么推薦系統(tǒng)將有望迎來經典范式的變革。這一觀點來自于 MoRec 完全基于物品的模態(tài)信息,此類內容信息天生具有遷移能力,論文通過扎實的實驗系統(tǒng)性證明了 MoRec 有潛力實現(xiàn)通用大模型。

結論 1:對于時序推薦架構 SASRec,在常規(guī)場景(既有熱 item 也有一部分冷 item),MoRec 在文本上明顯優(yōu)于 IDRec,而在圖片上則和 IDRec 效果相當。在冷啟動場景,MoRec 大幅優(yōu)于 IDRec,在熱門商品推薦場景,MoRec 和 IDRec 效果相當。

結論 2:MoRec 為推薦系統(tǒng)和 NLP、CV 等多模態(tài)社區(qū)建立了聯(lián)系,而且一般來說,可以很好的繼承 NLP 和 CV 領域的最新進展。

結論 3:工業(yè)界流行的 Two-stage 離線特征提取推薦方式會導致 MoRec 性能顯著下降(特別是對于視覺推薦),這在實踐中不應該被忽視。同時,盡管多模態(tài)領域的預訓練模型在近年來取得了革命性的成功,但其表征還沒有做到通用性和泛化性,至少對于推薦系統(tǒng)是這樣(MoRec 論文也被 Google DeepMind 團隊邀請給了一個 talk,Google researcher 對該工作評價非常高)。受此啟發(fā),近期已經出現(xiàn)很多相關工作。

wKgaomVQ25OAcNZ0AAK01JDUWhM053.png

AdapterRec 首次系統(tǒng)性討論了基于模態(tài)信息的高效遷移方法。論文評估了基于適配器(Adapter)的模型補丁。與以往工作在下游遷移時微調全部參數(shù)不同,AdapterRec 在遷移時在模型網絡中插入并僅微調適配器網絡。論文在大規(guī)模文本、圖片模態(tài)數(shù)據上進行了豐富的驗證實驗。

結果表明,基于文本、圖片模態(tài)的適配器都可以實現(xiàn)良好的遷移效果。基于文本模態(tài)時,適配器技術可以在微調極少量參數(shù)的計算成本下實現(xiàn)與微調全部參數(shù)相近的遷移結果。AdapterRec 證實了基于適配器技術的高效遷移方法是實現(xiàn)通用推薦系統(tǒng)大模型的重要環(huán)節(jié)。

wKgaomVQ25OAfBjLAAEZgTc3Z3M291.png

NineRec 提出了迄今為止推薦系統(tǒng)領域規(guī)模最大最多樣的多模態(tài)遷移學習數(shù)據集。論文延續(xù) MoRec 與 IDRec 公平比較的原則,系統(tǒng)性評估了 MoRec 的遷移能力并給出詳見的指導建議與評估平臺。NineRec 提供了一套大規(guī)模預訓練數(shù)據集和九個下游場景數(shù)據集,其中僅預訓練數(shù)據集就包含 200 萬用戶、14 萬物品以及近 2500 萬條交互記錄信息。

論文設計大規(guī)模實驗評估了多種經典推薦架構(SASRec,BERT4Rec,NextItNet,GRU4Rec)與物品編碼器(BERT,Roberta,OPT,ResNet,Swin Transformer)的遷移表現(xiàn),并驗證了端到端遷移(End-to-End)與兩階段遷移(Two-stage)對于遷移推薦的影響。實驗結果表明,利用端到端訓練技術可以極大程度上激發(fā)模態(tài)信息的潛能,僅使用經典框架如 SASRec 即可超越近期同類型可遷移推薦模型。

論文還驗證了基于純模態(tài)信息的 zero-shot 遷移能力。NineRec 為基于模態(tài)的推薦系統(tǒng)遷移學習和推薦大模型發(fā)展提供了全新的平臺和基準。NineRec(只有文本和圖片模態(tài))之后,團隊聯(lián)合發(fā)布了 MicroLens [11] 數(shù)據集,是當前最大的短視頻推薦數(shù)據集包含原始短視頻,是其他相關數(shù)據集規(guī)模的數(shù)千倍,用戶量達到 3000 萬,點擊行為達到 10 億,可以用于訓練推薦系統(tǒng)大模型。NineRec 與 MicroLens 算力和數(shù)據集收集費用都超過百萬人民幣。

wKgaomVQ25OAG5aeAAAr2pbNr48565.png基于LLM的可遷移推薦系統(tǒng)

當下人工智能領域進入大模型時代,越來越多的通用大模型在各個領域被提出,極大的促進了 AI 社區(qū)的發(fā)展。然而大模型技術在推薦系統(tǒng)領域應用還處于早期階段。諸多問題并沒有得到很好的回答,如利用大語言模型理解推薦任務是否能大幅超越原有的 ID 范式?是否越大規(guī)模參數(shù)的大模型網絡可以帶來通用推薦表征?回答這些問題是推動推薦系統(tǒng)社區(qū)進入大模型時代的敲門磚,受到了越來越多科研團隊的關注。

這里主要介紹 P5 [8] 和 GPT4Rec [9],P5 是采用 LM 作為推薦 backbone,而 GPT4Rec 則是極限地評估 1750 億的 item encoder 表能能力, 后續(xù)工作也非常多(例如基于 prompt,基于chain of thought,基于 ChatGPT 等),例如同時期的工作還有 Google 的 LLM for rating prediction [10]與 GPT4Rec 類似,都是采用遷移模型評估性能極限,一個專注 top-n item 推薦,一個專注 rating prediction。

P5 提出了一種基于文本模態(tài)的多任務大模型框架,將多種經典推薦任務轉化為統(tǒng)一的自然語言理解任務,包括序列推薦、評分預測、推薦理由、摘要以及直接推薦等多種任務。模型設計上,P5 通過基于提示(prompt)的自然語言格式來構建任務,將這些相關的推薦任務統(tǒng)一為序列到序列(seq-to-seq)框架中進行學習。數(shù)據方面,P5 將各種可用數(shù)據,例如用戶信息、物品元數(shù)據、用戶評論以及用戶與物品的互動數(shù)據轉化為自然語言序列。豐富的訓練數(shù)據產生了滿足個性化推薦需求的語義信息。

wKgaomVQ25SALevaAAKvD5g62vU755.png

GPT4Rec 首次探索了使用百億規(guī)模大語言模型作為物品編碼器。論文提出并回答了幾個關鍵性的問題:1)基于文本的協(xié)同過濾推薦算法(TCF)的性能隨著物品編碼器參數(shù)量不斷增加表現(xiàn)如何?是否在千億規(guī)模能達到上限?2)超大參數(shù)的 LLM,如 175B 參數(shù) GPT-3,是否能產生通用的 item 表征?3)基于公平比較,裝配了 175B 參數(shù)量的 LLM 的推薦系統(tǒng)算法能否打敗基于 ID 的經典算法;4)基于 LLM 的 TCF 算法距離推薦系統(tǒng)通用大模型還有多遠?

實驗結果表明:

1. 175B 的參數(shù) LM 可能還沒有達到其性能上限,通過觀察到 LLM 的參數(shù)量從 13B 到 175B 時,TCF 模型的性能還沒有收斂。這一現(xiàn)象表明將來使用更多參數(shù)的 LLM 用作文本編碼器是有帶來更高的推薦準確性的潛力的;

2. 即使是由極其龐大的 LM(如 GPT-3)學習到的物品表示,也未必能形成一個通用的表征。在相應的推薦系統(tǒng)數(shù)據集微調仍然對于獲得 SOTA 仍然是必要的,至少對文本推薦任務來說是如此;

3. 即使采用 175B 和微調的 66B 的語言模型,當使用 DSSM 作為推薦骨架時,TCF 仍然很大程度的劣于 IDRec,但是對于序列推薦模型,LLM 即便采用凍住的表征,也基本可以跟 IDRec 相媲美;

4. 雖然裝配了 175B 參數(shù)量 LLM 的 TCF 模型的表現(xiàn)優(yōu)于隨機采樣的 item 的推薦,甚至達到了 6-40 倍的提升。但與在推薦數(shù)據上重新訓練的 TCF 模型相比,它們仍然有巨大的差距。另外,論文發(fā)現(xiàn):

5. ChatGPT 在典型的推薦系統(tǒng)場景與 TCF 相比表現(xiàn)存在較大的差距,文章猜測需要更加精細的 prompt,ChatGPT 才有可能用于某些真實推薦場景。

wKgaomVQ25SAeUpDAAIjsnzcfoA933.png

wKgaomVQ25SAdzCQAAAtTL4L6hI436.png總結

目前推薦系統(tǒng)社區(qū)內,基于模態(tài)內容的大模型研究仍處于起步階段:

1. 基于傳統(tǒng)的 ID 的推薦算法難以解決模態(tài)場景問題;

2. 已有的基于模態(tài)內容的跨域推薦系統(tǒng)文獻通用性較低;

3. 非端到端的聯(lián)合訓練提取的特征可能存在粒度尺度不匹配等問題,通常只能生成次優(yōu)的推薦水平;

4. 社區(qū)缺少包含模態(tài)內容的可用于遷移學習研究的大規(guī)模公開數(shù)據集,缺少基準和排行榜(leaderboard);

5. 已有文獻中的推薦系統(tǒng)大模型參數(shù)量和訓練數(shù)據太小(相對于 NLP 與 CV 領域),缺少開源的推薦系統(tǒng)大模型預訓練參數(shù)。

wKgaomVQ25SALi3nAAAC0jQz1zo800.svg

參考文獻

wKgaomVQ25SALi3nAAAC0jQz1zo800.svg ?[1] Parameter-efficient transfer from sequential behaviors for user modeling and recommendation (SIGIR2020)

[2] One Person, One Model, One World: Learning Continual User Representation without Forgetting (SIGIR2021)

[3] Learning transferable user representations with sequential behaviors via contrastive pre-training (ICDM2021)

[4] TransRec: Learning Transferable Recommendation from Mixture-of-Modality Feedback. Arxiv2022/06

[5] Where to Go Next for Recommender Systems? ID- vs. Modality-based Recommender Models Revisited (SIGIR2023)

[6] Exploring Adapter-based Transfer Learning for Recommender Systems: Empirical Studies and Practical Insights (WSDM2024)

[7] NineRec: A Suite of Transfer Learning Datasets for ModalityBased Recommender Systems. Arxiv2023/09

[8] Recommendation as Language Processing (RLP): A Unified Pretrain, Personalized Prompt & Predict Paradigm (P5) (Recsys2022)

[9] Exploring the Upper Limits of Text-Based Collaborative Filtering Using Large Language Models: Discoveries and Insights. Arxiv2023/05

[10] Do LLMs Understand User Preferences? Evaluating LLMs On User Rating Prediction. Arxiv2023/05

[11] A Content-Driven Micro-Video Recommendation Dataset at Scale. Arxiv2023/09

參考技術貼:

1)https://zhuanlan.zhihu.com/p/624557649 機器學習心得(八):推薦系統(tǒng)是不是即將迎來預訓練時代?

2)https://zhuanlan.zhihu.com/p/633839409 SIGIR2023 | ID vs 模態(tài): 推薦系統(tǒng)ID范式有望被顛覆?

3)https://zhuanlan.zhihu.com/p/642797247 推薦系統(tǒng)范式之爭,LLM vs. ID?

4)https://zhuanlan.zhihu.com/p/437671278 推薦系統(tǒng)通用用戶表征預訓練研究進展

5)https://zhuanlan.zhihu.com/p/661836095 推薦系統(tǒng)何去何從(Google DeepMind受邀報告)

6)https://zhuanlan.zhihu.com/p/661954235 推薦系統(tǒng)預訓練大模型范式發(fā)展


原文標題:從ID-based到LLM-based:可遷移推薦系統(tǒng)發(fā)展

文章出處:【微信公眾號:智能感知與物聯(lián)網技術研究所】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 物聯(lián)網

    關注

    2909

    文章

    44598

    瀏覽量

    373015

原文標題:從ID-based到LLM-based:可遷移推薦系統(tǒng)發(fā)展

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網技術研究所】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    什么是LLMLLM在自然語言處理中的應用

    隨著人工智能技術的飛速發(fā)展,自然語言處理(NLP)領域迎來了革命性的進步。其中,大型語言模型(LLM)的出現(xiàn),標志著我們對語言理解能力的一次飛躍。LLM通過深度學習和海量數(shù)據訓練,使得機器能夠以前
    的頭像 發(fā)表于 11-19 15:32 ?550次閱讀

    LLM技術對人工智能發(fā)展的影響

    隨著人工智能技術的飛速發(fā)展,大型語言模型(LLM)技術已經成為推動AI領域進步的關鍵力量。LLM技術通過深度學習和自然語言處理技術,使得機器能夠理解和生成自然語言,極大地擴展了人工智能的應用范圍
    的頭像 發(fā)表于 11-08 09:28 ?364次閱讀

    NY8B062F 14 I/O+12-通道ADC 8位EPROM-Based單片機手冊

    電子發(fā)燒友網站提供《NY8B062F 14 I/O+12-通道ADC 8位EPROM-Based單片機手冊.pdf》資料免費下載
    發(fā)表于 10-28 10:47 ?0次下載

    端InfiniBand網絡解決LLM訓練瓶頸

    的,這需要大量的計算資源和高速數(shù)據傳輸網絡。端端InfiniBand(IB)網絡作為高性能計算和AI模型訓練的理想選擇,發(fā)揮著重要作用。在本文中,我們將深入探討大型語言模型(LLM)訓練的概念,并探索端端InfiniBand
    的頭像 發(fā)表于 10-23 11:26 ?387次閱讀
    端<b class='flag-5'>到</b>端InfiniBand網絡解決<b class='flag-5'>LLM</b>訓練瓶頸

    USCI模塊遷移到eUSCI模塊

    電子發(fā)燒友網站提供《USCI模塊遷移到eUSCI模塊.pdf》資料免費下載
    發(fā)表于 10-18 10:39 ?0次下載
    <b class='flag-5'>從</b>USCI模塊<b class='flag-5'>遷移</b>到eUSCI模塊

    MSP430? MCU MSPM0 MCU 的遷移指南

    電子發(fā)燒友網站提供《 MSP430? MCU MSPM0 MCU 的遷移指南.pdf》資料免費下載
    發(fā)表于 09-09 14:55 ?2次下載
    <b class='flag-5'>從</b> MSP430? MCU <b class='flag-5'>到</b> MSPM0 MCU 的<b class='flag-5'>遷移</b>指南

    STM32基于Arm的MSPM0的遷移指南

    電子發(fā)燒友網站提供《STM32基于Arm的MSPM0的遷移指南.pdf》資料免費下載
    發(fā)表于 09-07 11:31 ?0次下載
    <b class='flag-5'>從</b>STM32<b class='flag-5'>到</b>基于Arm的MSPM0的<b class='flag-5'>遷移</b>指南

    遷移到基于Arm STM32的MSPMO指南

    電子發(fā)燒友網站提供《遷移到基于Arm STM32的MSPMO指南.pdf》資料免費下載
    發(fā)表于 09-07 11:17 ?0次下載
    <b class='flag-5'>從</b><b class='flag-5'>遷移</b>到基于Arm STM32的MSPMO指南

    將軟件8位(字節(jié))尋址CPU遷移至C28x CPU

    電子發(fā)燒友網站提供《將軟件8位(字節(jié))尋址CPU遷移至C28x CPU.pdf》資料免費下載
    發(fā)表于 09-06 10:42 ?0次下載
    將軟件<b class='flag-5'>從</b>8位(字節(jié))<b class='flag-5'>可</b>尋址CPU<b class='flag-5'>遷移</b>至C28x CPU

    Renesas RL78基于Arm的MSPM0的遷移指南

    電子發(fā)燒友網站提供《Renesas RL78基于Arm的MSPM0的遷移指南.pdf》資料免費下載
    發(fā)表于 08-23 09:28 ?0次下載
    <b class='flag-5'>從</b>Renesas RL78<b class='flag-5'>到</b>基于Arm的MSPM0的<b class='flag-5'>遷移</b>指南

    什么是LLMLLM的工作原理和結構

    隨著人工智能技術的飛速發(fā)展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領域的研究熱點。LLM以其強大的文本生成、理解和推理能力,在文本
    的頭像 發(fā)表于 07-02 11:45 ?7675次閱讀

    大語言模型(LLM)快速理解

    自2022年,ChatGPT發(fā)布之后,大語言模型(LargeLanguageModel),簡稱LLM掀起了一波狂潮。作為學習理解LLM的開始,先來整體理解一下大語言模型。一、發(fā)展歷史大語言模型的
    的頭像 發(fā)表于 06-04 08:27 ?965次閱讀
    大語言模型(<b class='flag-5'>LLM</b>)快速理解

    ARM-based相比ARM cortex有何優(yōu)勢?

    你看好ARM-based架構嗎 相比ARM cortex有何優(yōu)勢 ARM其他還有什么架構啊,感覺曝光的好少。。
    發(fā)表于 04-24 06:55

    李未可科技正式推出WAKE-AI多模態(tài)AI大模型

    文本生成、語言理解、圖像識別及視頻生成等多模態(tài)交互能力。 ? 該大模型圍繞 GPS 軌跡+視覺+語音打造新一代 LLM-Based的自然交互,同時多模態(tài)問答技術的加持,能實現(xiàn)所見即所問、所問即所得的精準服務。此外,融合了人類意圖理解、長期記憶機制、情感大模型及TTS 克
    發(fā)表于 04-18 17:01 ?595次閱讀
    李未可科技正式推出WAKE-AI多模態(tài)AI大模型

    FPGA-Based DPU網卡的發(fā)展和應用

    采用單芯片的SoC形態(tài),兼顧性能和功耗。FPGA-Based DPU在硬件設計上的挑戰(zhàn)主要來自芯片面積和功耗。
    發(fā)表于 02-23 14:40 ?2061次閱讀
    FPGA-<b class='flag-5'>Based</b> DPU網卡的<b class='flag-5'>發(fā)展</b>和應用
    主站蜘蛛池模板: 小柔的性放荡羞辱日记| 亚洲精品无码不卡在线播放he | 欧美重口绿帽video| 偷窥 亚洲 色 国产 日韩| 一级做a爰片久久毛片免费| yw193.c国产在线观看| 国内精品蜜汁乔依琳视频| 欧美精品熟妇乱| 亚洲精品一卡二卡三卡四卡2021 | www.av在线| 韩国无遮羞禁动漫在线观看96| 欧美黑人巨大xxxxx| 亚洲国产精品线在线观看| thermo脱色摇床安卓下载| 精品国产乱码久久久久久软件| 日本片bbbxxx| 最近高清中文字幕无吗免费看| 国产精品路线1路线2路线| 蜜桃臀无码内射一区二区三区| 亚洲 色 欧美 爱 视频 日韩| a毛片基地免费全部视频| 精品国产午夜福利在线观看蜜月| 欧美亚洲日韩在线在线影院| 一级毛片免费播放| 国产人成无码视频在线观看| 欧洲最大无人区免费高清完整版 | 影音先锋av丝袜天堂| 国产超嫩一线天在线播放| 男女夜晚在爽视频免费观看| 亚洲色图在线视频| 国产成人在线视频播放| 欧美大jiji| 在线精品视频成人网| 国内自拍 在线 亚洲 欧美| 日韩人妻精品久久日| 99久久香蕉| 巨胸美乳中文在线观看| 亚洲午夜精品A片久久WWW软件 | 99久久久国产精品免费调教| 久久精品中文字幕免费| 亚洲精品久久无码AV片银杏|