?? 發(fā)表于論文:(2021) LoRA: Low-Rank Adaptation of Large Language Models
?? 目的:大模型預(yù)訓(xùn)練+微調(diào)范式,微調(diào)成本高。LoRA只微調(diào)新增的小部分參數(shù)。
文章來源:http://www.zghlxwxcb.cn/news/detail-581326.html
1、背景
- adapter增加了模型層數(shù),引入了額外的推理延遲;
- prefix-tuning比較難訓(xùn)練,效果不如直接finetune。
- LoRA不會引入額外的延遲,甚至原文中的實驗結(jié)果表明它和全量微調(diào)效果相當(dāng),并且速度更快,計算量更少。
2、動機
論文作者得益于前人的一些關(guān)于內(nèi)在維度(intrinsic dimension)的發(fā)現(xiàn):模型是過參數(shù)化的,它們有更小的內(nèi)在維度,模型主要依賴于這個低的內(nèi)在維度(low intrinsic dimension)去做任務(wù)適配(微調(diào))。假設(shè)模型在任務(wù)適配過程中權(quán)重的改變量是低秩(low rank)的,由此提出低秩自適應(yīng)(LoRA)文章來源地址http://www.zghlxwxcb.cn/news/detail-581326.html
到了這里,關(guān)于LLM微調(diào) | LoRA: Low-Rank Adaptation of Large Language Models的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!