色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么是檢索增強(qiáng)生成?

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來(lái)源:未知 ? 2023-11-16 21:15 ? 次閱讀

檢索增強(qiáng)生成是一種使用從外部來(lái)源獲取的事實(shí),來(lái)提高生成式 AI 模型準(zhǔn)確性和可靠性的技術(shù)。

為了理解這一生成式 AI 領(lǐng)域的最新進(jìn)展,讓我們以法庭為例。

法官通常根據(jù)對(duì)法律的一般理解來(lái)審理和判決案件。但有些案件需要用到特殊的專業(yè)知識(shí),如醫(yī)療事故訴訟或勞資糾紛等,因此法官會(huì)派法庭書(shū)記員去圖書(shū)館尋找可以引用的先例和具體案例。

與優(yōu)秀的法官一樣,大語(yǔ)言模型(LLM)能夠響應(yīng)人類的各種查詢。但為了能夠提供引經(jīng)據(jù)典的權(quán)威答案,模型需要一個(gè)助手來(lái)做一些研究。

AI 的“法庭書(shū)記員”就是一個(gè)被稱為檢索增強(qiáng)生成(RAG)的過(guò)程。

名稱的由來(lái)

這個(gè)名稱來(lái)自 2020 年的一篇論文(https://arxiv.org/pdf/2005.11401.pdf),論文的第一作者 Patrick Lewis 對(duì) RAG 這個(gè)“不討喜”的縮寫詞表示了歉意,如今,這個(gè)詞被用來(lái)描述在數(shù)百篇論文和數(shù)十種商業(yè)服務(wù)中不斷發(fā)展壯大的某種方法,而在他看來(lái),這些都代表著生成式 AI 的未來(lái)。

在一場(chǎng)于新加坡舉辦的數(shù)據(jù)庫(kù)開(kāi)發(fā)者區(qū)域會(huì)議中,Lewis 接受了采訪,他提到:“如果我們當(dāng)時(shí)知道研究成果會(huì)被如此廣泛地使用,肯定會(huì)在起名時(shí)多花些心思。”

wKgaomVWFweAOv0_AABbgqp3Oek038.jpg

圖 1:Partick Lewis

Lewis 現(xiàn)在是 AI 初創(chuàng)企業(yè) Cohere 的 RAG 團(tuán)隊(duì)負(fù)責(zé)人。他表示:“我們當(dāng)時(shí)一直想取一個(gè)好聽(tīng)的名字,但到了寫論文的時(shí)候,大家都想不出更好的了。”

什么是檢索增強(qiáng)生成?

檢索增強(qiáng)生成是一種使用從外部來(lái)源獲取的事實(shí),來(lái)提高生成式 AI 模型準(zhǔn)確性和可靠性的技術(shù)。

換言之,它填補(bǔ)了 LLM 工作方式的缺口。LLM 其實(shí)是一種神經(jīng)網(wǎng)絡(luò),以其所含參數(shù)數(shù)量來(lái)衡量,參數(shù)本質(zhì)上等同于人類一般的遣詞造句方式。

這種深度理解有時(shí)被稱為參數(shù)化知識(shí),使 LLM 能夠在瞬間對(duì)一般的指令作出響應(yīng)。但如果用戶希望深入了解當(dāng)前或更加具體的主題,它就不夠用了。

結(jié)合內(nèi)部與外部資源

Lewis 與其同事所開(kāi)發(fā)的檢索增強(qiáng)生成技術(shù)能夠連接生成式 AI 服務(wù)與外部資源,尤其是那些具有最新技術(shù)細(xì)節(jié)的資源。

這篇論文的共同作者們來(lái)自前 Facebook AI Research(現(xiàn) Meta AI)、倫敦大學(xué)學(xué)院和紐約大學(xué)。由于 RAG 幾乎可以被任何 LLM 用于連接任意外部資源,因此他們把 RAG 稱為“通用的微調(diào)秘方”。

建立用戶信任

檢索增強(qiáng)生成為模型提供了可以引用的來(lái)源,就像研究論文中的腳注一樣。這樣用戶就可以對(duì)任何說(shuō)法進(jìn)行核實(shí),從而建立起信任。

另外,這種技術(shù)還能幫助模型消除用戶查詢中的歧義,降低模型做出錯(cuò)誤猜測(cè)的可能性,該現(xiàn)象有時(shí)被稱為“幻覺(jué)”。

RAG 的另一大優(yōu)勢(shì)就是相對(duì)簡(jiǎn)單。Lewis 與該論文的其他三位共同作者在博客中表示,開(kāi)發(fā)者只需五行代碼就能實(shí)現(xiàn)這一流程。

這使得該方法比使用額外的數(shù)據(jù)集來(lái)重新訓(xùn)練模型更快、成本更低,而且還能讓用戶隨時(shí)更新新的來(lái)源。

如何使用檢索增強(qiáng)生成

借助檢索增強(qiáng)生成技術(shù),用戶基本上可以實(shí)現(xiàn)與數(shù)據(jù)存儲(chǔ)庫(kù)對(duì)話,從而獲得全新的體驗(yàn)。這意味著用于 RAG 的應(yīng)用可能是可用數(shù)據(jù)集數(shù)量的數(shù)倍。

例如,一個(gè)帶有醫(yī)療數(shù)據(jù)索引的生成式 AI 模型可以成為醫(yī)生或護(hù)士的得力助手;金融分析師將受益于一個(gè)與市場(chǎng)數(shù)據(jù)連接的“助手”。

實(shí)際上,幾乎所有企業(yè)都可以將其技術(shù)或政策手冊(cè)、視頻或日志轉(zhuǎn)化為“知識(shí)庫(kù)”資源,以此增強(qiáng) LLM。這些資源可以啟用客戶或現(xiàn)場(chǎng)技術(shù)支持、員工培訓(xùn)、開(kāi)發(fā)者生產(chǎn)力等用例。

AWS、IBM、Glean、谷歌、微軟、NVIDIA、Oracle 和 Pinecone 等公司正是因?yàn)檫@一巨大的潛力而采用 RAG。

開(kāi)始使用檢索增強(qiáng)生成

為了幫助用戶入門,NVIDIA 開(kāi)發(fā)了檢索增強(qiáng)生成參考架構(gòu)https://docs.nvidia.com/ai-enterprise/workflows-generative-ai/0.1.0/technical-brief.html)。該架構(gòu)包含一個(gè)聊天機(jī)器人示例和用戶使用這種新方法創(chuàng)建個(gè)人應(yīng)用所需的元素。

該工作流使用了專用于開(kāi)發(fā)和自定義生成式 AI 模型的框架NVIDIA NeMo,以及用于在生產(chǎn)中運(yùn)行生成式 AI 模型的軟件,例如NVIDIA Triton推理服務(wù)器NVIDIA TensorRT-LLM等。

這些軟件組件均包含在NVIDIA AI Enterprise軟件平臺(tái)中,其可加速生產(chǎn)就緒型 AI 的開(kāi)發(fā)和部署,并提供企業(yè)所需的安全性、支持和穩(wěn)定性。

為了讓 RAG 工作流獲得最佳性能,需要大量?jī)?nèi)存和算力來(lái)移動(dòng)和處理數(shù)據(jù)。NVIDIA GH200 Grace Hopper 超級(jí)芯片配備 288 GB 高速 HBM3e 內(nèi)存和每秒 8 千萬(wàn)億次的算力,堪稱最佳的選擇,其速度相比使用 CPU 提升了 150 倍。

一旦企業(yè)熟悉了 RAG,就可以將各種現(xiàn)成或自定義的 LLM 與內(nèi)部或外部知識(shí)庫(kù)相結(jié)合,創(chuàng)造出各種能夠幫助其員工和客戶的助手。

RAG 不需要數(shù)據(jù)中心。在 Windows PC 上已可直接使用 LLM,其實(shí)這都要?dú)w功于 NVIDIA 軟件所提供的支持,使用戶可以在筆記本電腦上輕松訪問(wèn)各種應(yīng)用。

wKgaomVWFweAcXm2AABiDi7jtnw228.jpg

圖 2:一個(gè)在 PC 上的 RAG 示例應(yīng)用程序。

配備NVIDIA RTX GPU的 PC 如今可以在本地運(yùn)行一些 AI 模型。通過(guò)在 PC 上使用 RAG,用戶可以連接私人知識(shí)來(lái)源(無(wú)論是電子郵件、筆記還是文章),以改善響應(yīng)。這樣,用戶可以對(duì)其數(shù)據(jù)來(lái)源、指令和回答的私密性和安全性放心。

在最近的一篇博客(https://blogs.nvidia.com/blog/tensorrt-llm-windows-stable-diffusion-rtx/)中,就提供了一個(gè)在 Windows 上使用 TensorRT-LLM 加速的 RAG 以快速獲得更好結(jié)果的例子。

檢索增強(qiáng)生成的發(fā)展史

這項(xiàng)技術(shù)的起源至少可以追溯到 20 世紀(jì) 70 年代初。當(dāng)時(shí),信息檢索領(lǐng)域的研究人員推出了所謂的問(wèn)答系統(tǒng)原型,即使用自然語(yǔ)言處理(NLP)訪問(wèn)文本的應(yīng)用程序,最初涵蓋的是棒球等狹隘的主題。

多年以來(lái),這種文本挖掘背后的概念其實(shí)一直沒(méi)有改變。但驅(qū)動(dòng)它們的機(jī)器學(xué)習(xí)引擎卻有了顯著的發(fā)展,從而提高了實(shí)用性和受歡迎程度。

20 世紀(jì) 90 年代中期,Ask Jeeves 服務(wù)(即現(xiàn)在的 Ask.com)以一個(gè)穿著考究的男仆作為吉祥物,普及了問(wèn)答系統(tǒng)。2011 年,IBM 的 Watson 在《危險(xiǎn)邊緣》(Jeopardy!)節(jié)目中輕松擊敗兩位人類冠軍,成為電視名人。

wKgaomVWFweAF4ojAADgAIrgW7E843.jpg

如今,LLM 正在將問(wèn)答系統(tǒng)提升至全新的水平。

在一家倫敦實(shí)驗(yàn)室中迸發(fā)的靈感

在 2020 年發(fā)表這篇開(kāi)創(chuàng)性的論文時(shí),Lewis 正在倫敦大學(xué)學(xué)院攻讀自然語(yǔ)言處理(NLP)博士學(xué)位,并在倫敦一家新成立的 AI 實(shí)驗(yàn)室中為 Meta 工作。當(dāng)時(shí),該團(tuán)隊(duì)正在尋找將更多知識(shí)加入到 LLM 參數(shù)中的方法,并使用模型自己開(kāi)發(fā)的基準(zhǔn)來(lái)衡量進(jìn)展。

Lewis 回憶道,團(tuán)隊(duì)在早期方法的基礎(chǔ)上,受谷歌研究人員一篇論文的啟發(fā),“產(chǎn)生了這一絕妙的想法——在一個(gè)經(jīng)過(guò)訓(xùn)練的系統(tǒng)中嵌入檢索索引,這樣它就能學(xué)習(xí)并生成你想要的任何文本輸出。”

wKgaomVWFweAb0-BAADX3I7hchU283.jpg

圖 3:IBM Watson 問(wèn)答系統(tǒng)在電視節(jié)目《危險(xiǎn)邊緣》(Jeopardy!)中大獲全勝,一舉成名

Lewis 將這項(xiàng)正在開(kāi)發(fā)的工作與另一個(gè) Meta 團(tuán)隊(duì)的優(yōu)秀檢索系統(tǒng)連接,所產(chǎn)生的第一批結(jié)果令人大吃一驚。

“我把結(jié)果拿給主管看,他驚嘆道:‘哇,你們做到了。這可不是常有的事情’。因?yàn)檫@些工作流很難在第一次就被設(shè)置正確。”

Lewis 還贊揚(yáng)了團(tuán)隊(duì)成員 Ethan Perez 和 Douwe Kiela 的重要貢獻(xiàn),兩人分別來(lái)自紐約大學(xué)和當(dāng)時(shí)的 Facebook AI 研究院。

這項(xiàng)在 NVIDIA GPU 集群上運(yùn)行并已完成的工作,展示了如何讓生成式 AI 模型更具權(quán)威性和可信度。此后,數(shù)百篇論文引用了這一研究成果,并在這一活躍的研究領(lǐng)域?qū)ο嚓P(guān)概念進(jìn)行了擴(kuò)展和延伸。

檢索增強(qiáng)生成如何工作

NVIDIA 技術(shù)簡(jiǎn)介https://docs.nvidia.com/ai-enterprise/workflows-generative-ai/0.1.0/technical-brief.html)高度概括了 RAG 流程:

當(dāng)用戶向 LLM 提問(wèn)時(shí),AI 模型會(huì)將查詢發(fā)送給另一個(gè)模型,后者會(huì)將查詢轉(zhuǎn)換成數(shù)字格式以便機(jī)器讀取。數(shù)字版本的查詢有時(shí)被稱為嵌入或向量。

wKgaomVWFweAcme4AABIVri9hBM966.jpg

圖 4:檢索增強(qiáng)生成將 LLM 與嵌入模型和向量數(shù)據(jù)庫(kù)相結(jié)合。

隨后,嵌入模型會(huì)將這些數(shù)值與可用知識(shí)庫(kù)的機(jī)器可讀索引中的向量進(jìn)行比較。當(dāng)發(fā)現(xiàn)存在一個(gè)或多個(gè)匹配項(xiàng)時(shí),它會(huì)檢索相關(guān)數(shù)據(jù),將其轉(zhuǎn)換為人類可讀的單詞并發(fā)送回 LLM。

最后,LLM 會(huì)將檢索到的單詞和它自己對(duì)查詢的響應(yīng)相結(jié)合,形成最終的答案并提交給用戶,其中可能會(huì)引用嵌入模型找到的來(lái)源。

始終使用最新的資源

在后臺(tái),嵌入模型會(huì)不斷創(chuàng)建并更新機(jī)器可讀索引(有時(shí)被稱為向量數(shù)據(jù)庫(kù)),以獲得經(jīng)過(guò)更新的最新知識(shí)庫(kù)。

wKgaomVWFwiAN8h0AAA8jV-HmHw114.jpg

圖 5:LangChain 的示意圖從另一個(gè)角度描述了使用檢索流程的 LLM。

許多開(kāi)發(fā)者也發(fā)現(xiàn),LangChain 這個(gè)開(kāi)源程序庫(kù)特別適合將 LLM、嵌入模型和知識(shí)庫(kù)串聯(lián)到一起。NVIDIA 在其檢索增強(qiáng)生成參考架構(gòu)中就是使用了 LangChain。

而在 LangChain 社群里,他們也提供了自己的 RAG 流程描述。(https://blog.langchain.dev/tutorial-chatgpt-over-your-data/

展望未來(lái),生成式 AI 的未來(lái)在于其創(chuàng)造性地串聯(lián)起各種 LLM 和知識(shí)庫(kù),創(chuàng)造出各種新型助手,并將可以驗(yàn)證的權(quán)威結(jié)果提供給用戶。

也歡迎您訪問(wèn)NVIDIA LaunchPadhttps://www.nvidia.com/en-us/launchpad/ai/generative-ai-knowledge-base-chatbot/)中的實(shí)驗(yàn)室,您可以通過(guò) AI 聊天機(jī)器人親身體驗(yàn)檢索增強(qiáng)生成。

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國(guó)加州圣何塞會(huì)議中心舉行,線上大會(huì)也將同期開(kāi)放。點(diǎn)擊“閱讀原文”掃描下方海報(bào)二維碼,立即注冊(cè) GTC 大會(huì)


原文標(biāo)題:什么是檢索增強(qiáng)生成?

文章出處:【微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3771

    瀏覽量

    90991

原文標(biāo)題:什么是檢索增強(qiáng)生成?

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    借助浪潮信息元腦企智EPAI高效創(chuàng)建大模型RAG

    面對(duì)大量不斷迭代的新知識(shí),大模型必須“終身學(xué)習(xí)”才能滿足實(shí)際應(yīng)用的需求。RAG(Retrieval-augmented Generation,檢索增強(qiáng)生成)讓生成式大模型能夠利用外部的知識(shí)源來(lái)
    的頭像 發(fā)表于 12-19 14:32 ?140次閱讀
    借助浪潮信息元腦企智EPAI高效創(chuàng)建大模型RAG

    Cloudera推出RAG Studio,助力企業(yè)快速部署聊天機(jī)器人

    近日,數(shù)據(jù)、分析和AI混合平臺(tái)廠商Cloudera宣布了一項(xiàng)創(chuàng)新舉措——推出RAG(Retrieval-Augmented Generation,檢索增強(qiáng)生成)Studio。這一平臺(tái)的問(wèn)世,標(biāo)志著
    的頭像 發(fā)表于 12-12 11:06 ?290次閱讀

    通過(guò)阿里云計(jì)算巢快速部署NVIDIA NIM

    在人工智能飛速發(fā)展的今天,大語(yǔ)言模型(LLM)為各個(gè)行業(yè)帶來(lái)了全新的場(chǎng)景和機(jī)遇。諸如客戶服務(wù)數(shù)字人,計(jì)算機(jī)輔助藥物研發(fā)的生成式虛擬篩選,基于檢索增強(qiáng)生成(RAG)的企業(yè)多模態(tài) PDF 數(shù)據(jù)提取
    的頭像 發(fā)表于 11-05 14:13 ?234次閱讀
    通過(guò)阿里云計(jì)算巢快速部署NVIDIA NIM

    恩智浦eIQ AI和機(jī)器學(xué)習(xí)開(kāi)發(fā)軟件增加兩款新工具

    恩智浦在eIQ AI和機(jī)器學(xué)習(xí)開(kāi)發(fā)軟件中增加了帶有檢索增強(qiáng)生成(RAG)與微調(diào)的生成式人工智能(GenAI)流程和eIQ Time Series Studio,以便在小型微控制器(MCU)、功能更強(qiáng)大的大型應(yīng)用處理器(MPU)等
    的頭像 發(fā)表于 11-01 11:39 ?495次閱讀

    全新 NVIDIA NeMo Retriever微服務(wù)大幅提升LLM的準(zhǔn)確性和吞吐量

    企業(yè)能夠通過(guò)提供檢索增強(qiáng)生成功能的生產(chǎn)就緒型 NVIDIA NIM 推理微服務(wù),充分挖掘業(yè)務(wù)數(shù)據(jù)的價(jià)值。這些微服務(wù)現(xiàn)已集成到 Cohesity、DataStax、NetApp 和 Snowflake 平臺(tái)中。
    的頭像 發(fā)表于 07-26 11:13 ?825次閱讀
    全新 NVIDIA NeMo Retriever微服務(wù)大幅提升LLM的準(zhǔn)確性和吞吐量

    英特爾軟硬件構(gòu)建模塊如何幫助優(yōu)化RAG應(yīng)用

    深入研究檢索增強(qiáng)生成 (Retrieval Augmented Generation, RAG),該創(chuàng)新方法定義了企業(yè)和機(jī)構(gòu)如何利用大語(yǔ)言模型(LLM)來(lái)發(fā)揮其數(shù)據(jù)的價(jià)值。本文將探索若干英特爾
    的頭像 發(fā)表于 07-24 15:12 ?411次閱讀
    英特爾軟硬件構(gòu)建模塊如何幫助優(yōu)化RAG應(yīng)用

    TaD+RAG-緩解大模型“幻覺(jué)”的組合新療法

    TaD:任務(wù)感知解碼技術(shù)(Task-aware Decoding,簡(jiǎn)稱TaD),京東聯(lián)合清華大學(xué)針對(duì)大語(yǔ)言模型幻覺(jué)問(wèn)題提出的一項(xiàng)技術(shù),成果收錄于IJCAI2024。 RAG:檢索增強(qiáng)生成技術(shù)
    的頭像 發(fā)表于 07-16 15:01 ?2038次閱讀
    TaD+RAG-緩解大模型“幻覺(jué)”的組合新療法

    揭秘NVIDIA AI Workbench 如何助力應(yīng)用開(kāi)發(fā)

    簡(jiǎn)化和優(yōu)化生成式 AI 開(kāi)發(fā)的工具備受追捧,需求與日俱增。借助基于檢索增強(qiáng)生成(RAG)(該技術(shù)通過(guò)從指定外部來(lái)源獲取事實(shí)資料,來(lái)提高生成式 AI 模型的準(zhǔn)確性和可靠性)的應(yīng)用和自定義
    發(fā)表于 07-10 18:51 ?639次閱讀
    揭秘NVIDIA AI Workbench 如何助力應(yīng)用開(kāi)發(fā)

    Java開(kāi)發(fā)者LLM實(shí)戰(zhàn)——使用LangChain4j構(gòu)建本地RAG系統(tǒng)

    不會(huì)是最新的,最新的chatGPT-4o只能基于2023年6月之前的數(shù)據(jù)進(jìn)行回答,距離目前已經(jīng)快一年的時(shí)間,如果想讓GPT基于近一年的時(shí)間回復(fù)問(wèn)題,就需要RAG(檢索增強(qiáng)生成)技術(shù)了。 此外,對(duì)于公司內(nèi)部的私有數(shù)據(jù),為了數(shù)據(jù)安全、商業(yè)利益考慮,不能放到互
    的頭像 發(fā)表于 07-02 10:32 ?1352次閱讀
    Java開(kāi)發(fā)者LLM實(shí)戰(zhàn)——使用LangChain4j構(gòu)建本地RAG系統(tǒng)

    大模型應(yīng)用之路:從提示詞到通用人工智能(AGI)

    鋪平道路。 基于AI大模型的推理功能,結(jié)合了RAG(檢索增強(qiáng)生成)、智能體(Agent)、知識(shí)庫(kù)、向量數(shù)據(jù)庫(kù)、知識(shí)圖譜等先進(jìn)技術(shù),我們向?qū)崿F(xiàn)真正的AGI(通用人工智能)邁出了重要步伐。 為了方便大家理解,將AI大模型視作類比人類大腦的存在,我
    的頭像 發(fā)表于 06-14 10:20 ?2182次閱讀
    大模型應(yīng)用之路:從提示詞到通用人工智能(AGI)

    檢索增強(qiáng)生成(RAG)如何助力企業(yè)為各種企業(yè)用例創(chuàng)建高質(zhì)量的內(nèi)容?

    生成式 AI 時(shí)代,機(jī)器不僅要從數(shù)據(jù)中學(xué)習(xí),還要生成類似人類一樣的文本、圖像、視頻等。檢索增強(qiáng)生成(RAG)則是可以實(shí)現(xiàn)的一種突破性方法。
    的頭像 發(fā)表于 03-29 15:09 ?907次閱讀

    阿里大模型“通義聽(tīng)悟”升級(jí)

    檢索增強(qiáng)生成算法,成功實(shí)現(xiàn)了對(duì)超長(zhǎng)音視頻的單記錄、跨記錄、多語(yǔ)言的自由問(wèn)答,為用戶帶來(lái)了前所未有的便捷體驗(yàn)。
    的頭像 發(fā)表于 03-21 11:30 ?1027次閱讀

    阿里云推出企業(yè)級(jí)大模型RAG系統(tǒng)

    在國(guó)際AI大數(shù)據(jù)峰會(huì)上,阿里云重磅推出了企業(yè)級(jí)大模型檢索增強(qiáng)生成(RAG)解決方案。這一解決方案旨在為企業(yè)提供更強(qiáng)大、更智能的大模型應(yīng)用工具,幫助企業(yè)更有效地利用大數(shù)據(jù)和人工智能技術(shù)。
    的頭像 發(fā)表于 02-05 09:54 ?1174次閱讀

    如何在不微調(diào)的情況下提高RAG的準(zhǔn)確性?

    數(shù)據(jù)科學(xué)家、AI 工程師、MLOps 工程師和 IT 基礎(chǔ)設(shè)施專業(yè)人員在設(shè)計(jì)和部署檢索增強(qiáng)生成(RAG)工作流時(shí),必須考慮各項(xiàng)因素,比如大語(yǔ)言模型(LLM) 核心組件以及評(píng)估方法等等。
    的頭像 發(fā)表于 01-05 10:26 ?1011次閱讀
    如何在不微調(diào)的情況下提高RAG的準(zhǔn)確性?

    高級(jí)檢索增強(qiáng)生成技術(shù)(RAG)全面指南

    ChatGPT、Midjourney等生成式人工智能(GenAI)在文本生成、文本到圖像生成等任務(wù)中表現(xiàn)出令人印象深刻的性能。
    的頭像 發(fā)表于 12-25 15:16 ?4855次閱讀
    高級(jí)<b class='flag-5'>檢索</b><b class='flag-5'>增強(qiáng)生成</b>技術(shù)(RAG)全面指南
    主站蜘蛛池模板: 羞羞答答的免费视频在线观看| 国产在线精品一区二区网站免费 | 亚洲国产精品免费观看| 国产色青青视频在线观看| 亚洲蜜桃AV色情精品成人| 久久黄视频| 98国产精品人妻无码免费| 人善交XUANWEN200喷水| 国产成人亚洲综合无| 亚洲国产精品综合久久一线| 久久黄色大片| xx69美国| 午夜福利合集1000在线| 精品久久久久久久高清| 97午夜伦伦电影理论片| 日韩伦理电影秋霞影院| 国产一区二区在线免费观看| 在线天天看片视频免费观看| 欧美日韩888在线观看| 国产对白精品刺激一区二区| 亚洲视频免费看| 年轻夫妇韩剧中文版免费观看| 动态抽插图视频| 亚洲欧美国产双大乳头| 免费黄色网址在线观看| 国产97碰免费视频| 亚洲欧美日韩中字视频三区| 嫩草电影网嫩草影院| 给我免费播放片bd国语| 亚洲人成网站在线观看90影院| 免费三级现频在线观看| 国产短视频精品区| 正在播放一区二区| 三级黄色视屏| 黄子佼81岁父亲现状曝光| 98色精品视频在线| 挺进老师的紧窄小肉六电影完整版 | H揉捏娇喘乳叫床NP调教视频| 我的好妈妈BD免费观看| 绝逼会被锁| 国产成+人欧美+综合在线观看|