作者:Sebastian Raschka
機器之心編譯
編輯:趙陽
LoRA 微調方法,隨著大模型的出現而走紅。
進NLP群—>加入NLP交流群
最近幾個月,ChatGPT 等一系列大語言模型(LLM)相繼出現,隨之而來的是算力緊缺日益嚴重。雖然人人都想打造專屬于自己的大模型,但是能負擔得起上億參數模型訓練的機構卻寥寥無幾。在快速發展的人工智能領域,以高效和有效的方式使用大型語言模型正變得越來越重要。LoRA(Low-Rank Adaption,低秩自適應) 作為微調 LLMs 一種比較出圈的技術,其額外引入了可訓練的低秩分解矩陣,同時固定住預訓練權重,從而大大減少了下游任務的可訓練參數數量。本文中,來自 Lightning AI 首席人工智能教育家 Sebastian Raschka 將帶你了解如何以高效的方式用 LoRA 來微調 LLM。下面是全文內容。為什么要進行微調?預訓練大語言模型通常被稱為基礎模型,這樣稱呼的原因是:大語言模型在各種任務中表現良好,可以將它們用作對目標任務進行微調的基礎。正如 Sebastian Raschka 在上一篇博文《Understanding Parameter-Efficient Finetuning of Large Language Models: From Prefix Tuning to LLaMA-Adapters》中所討論的,微調能夠使模型適應目標域和目標任務。盡管如此,大模型在計算上的成本可能非常昂貴 —— 模型越大,更新其網絡層的成本就越高。如果不想將網絡中所有的層都進行更新,可以使用諸如前綴微調和適配器之類的高效調參方法。如今,有一種更流行的微調技術:Hu 等人提出的低秩自適應(LoRA)。什么是 LoRA?它是如何工作的?它與其他流行的微調方法相比如何?本文將回答所有這些問題。



其中 x 表示輸入,如下所示:



-
下載預訓練的權重:https://github.com/Lightning-AI/lit-llama/blob/main/howto/download_weights.md
-
使用 LoRA 進行微調:https://github.com/Lightning-AI/lit-llama/blob/main/howto/finetune_lora.md
-
使用適配器進行微調:https://github.com/Lightning-AI/lit-llama/blob/main/howto/finetune_adapter.md(可選,用于比較研究)
下一節將比較 7B LLaMA 基礎模型與使用 LoRA 和 LLaMA Adapter 微調的 7B LLaMA 基礎模型。(請注意,需要具有至少 24 GB RAM 的 GPU)。計算性能基準本節中,作者將比較 LLaMA 7B 基礎模型與使用 LoRA 和 LLaMA Adapter 微調的基礎模型的計算性能。微調數據集是 Alpaca 52k 指令數據集,其結構如下:
-
種子任務池,包含一組人工編寫的指令(本例中為 175 條)和樣本指令;
-
使用預訓練的 LLM(如 GPT-3)來確定任務類別;
-
給定新指令,讓預訓練的 LLM 生成響應結果;
-
在將響應結果添加到任務池之前,先收集、剪枝和篩選響應結果。






-
語言模型
+關注
關注
0文章
558瀏覽量
10618 -
LoRa
+關注
關注
351文章
1747瀏覽量
234101 -
ChatGPT
+關注
關注
29文章
1585瀏覽量
8708
原文標題:調教LLaMA類模型沒那么難,LoRA將模型微調縮減到幾小時
文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
NVIDIA AI Foundry 為全球企業打造自定義 Llama 3.1 生成式 AI 模型

【飛騰派4G版免費試用】仙女姐姐的嵌入式實驗室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B
【「基于大模型的RAG應用開發與優化」閱讀體驗】+大模型微調技術解讀
MEMS器件縮減模型建模方法研究
新突破!超級計算機上深度學習訓練時間縮減到數分鐘
使用LoRA和Hugging Face高效訓練大語言模型
iPhone都能微調大模型了嘛

一種新穎的大型語言模型知識更新微調范式

不要錯過!NVIDIA “大模型沒那么泛!”主題活動

評論