国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Python - 深度學習系列30 - 使用LLaMA-Factory微調模型

這篇具有很好參考價值的文章主要介紹了Python - 深度學習系列30 - 使用LLaMA-Factory微調模型。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

說明

最實用的一種利用大語言模型的方式是進行微調。預訓練模型與我們的使用場景一定會存在一些差異,而我們又不可能重頭訓練。

微調的原理并不復雜,載入模型,灌新的數(shù)據(jù),然后運行再訓練,保留checkpoints。但是不同項目的代碼真的不太一樣,每一個都要單獨去看的話比較費神。

本篇簡單討論一下用LLaMA-Factory微調模型的體驗。

內容

1 LLaMA-Factory

LLaMA-Factory(https://github.com/hiyouga/LLaMA-Factory)是零隙智能(SeamLessAI)開源的低代碼大模型訓練框架,它集成了業(yè)界最廣泛使用的微調方法和優(yōu)化技術,并支持業(yè)界眾多的開源模型的微調和二次訓練,開發(fā)者可以使用私域數(shù)據(jù)、基于有限算力完成領域大模型的定制開發(fā)。LLaMA-Factory還為開發(fā)者提供了可視化訓練、推理平臺,一鍵配置模型訓練,實現(xiàn)零代碼微調LLM。自2023年5月開源以來,成為社區(qū)內最受歡迎的微調框架,github星數(shù)已超9K。

github項目地址

從目前的開源三大系(LLaMA, ChatGLM, BLOOM )來看,數(shù)量上的確還是Lamma系的多。

chatglb3-6b 微調llama-factory,深度學習,python,深度學習,llama

2 部署環(huán)境

用仙宮云部署,價格比較實惠,且環(huán)境比較新。

chatglb3-6b 微調llama-factory,深度學習,python,深度學習,llama
注意,云盤默認掛在 /root/cloud下,所以文件可以存在這里。

3 拉取項目并啟動服務

由于環(huán)境基本已經適配好的,安裝過程也很快

git clone https://github.com/hiyouga/LLaMA-Factory.git

cd LLaMA-Factory
pip3 install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/

然后執(zhí)行web前端的啟動命令

python3 ./scr/train_web.py

就會喚起一個前端(因為服務已經關掉了,忘了截圖)

4 拉取模型文件

我使用chatglm3-6b-base進行測試。

由于hugging face有墻, modelscope就是比較好的選擇。

兩種方式:

包方式:事實證明不是那么好,模型包存放的位置還要靠grep找出來

pip install modelscope
from modelscope import snapshot_download
model_dir = snapshot_download("ZhipuAI/chatglm3-6b", revision = "v1.0.0")

git方式

git lfs install
git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git

5 在web端配置

本次是連通性測試,我就修改了一下模型所在的文件夾位置,然后選擇lora,別的都沒改,就開始跑了。

整個微調的時間大約在4小時,期間顯存慢慢上升到21G,總體上應該是可用的。

chatglb3-6b 微調llama-factory,深度學習,python,深度學習,llama

今天主要就是調通,后續(xù)再更新。文章來源地址http://www.zghlxwxcb.cn/news/detail-848702.html

到了這里,關于Python - 深度學習系列30 - 使用LLaMA-Factory微調模型的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 小白也能微調大模型:LLaMA-Factory使用心得

    小白也能微調大模型:LLaMA-Factory使用心得

    大模型火了之后,相信不少人都在嘗試將預訓練大模型應用到自己的場景上,希望得到一個垂類專家,而不是通用大模型。 目前的思路,一是RAG(retrieval augmented generation),在模型的輸入prompt中加入盡可能多的“目標領域”的相關知識,引導模型在生成時盡量靠攏目標領域,運

    2024年04月13日
    瀏覽(32)
  • LLaMA-Factory參數(shù)的解答

    LLaMA-Factory參數(shù)的解答

    打開LLaMA-Factory的web頁面會有一堆參數(shù) ,但不知道怎么選,選哪個,這個文章詳細解讀一下,每個參數(shù)到底是什么含義 這是個人寫的參數(shù)解讀,我并非該領域的人如果那個大佬看到有參數(shù)不對請反饋一下,或者有補充的也可以!謝謝(后續(xù)該文章可能會持續(xù)更新) LLaMA-Facto

    2024年04月11日
    瀏覽(22)
  • LLaMA-Factory添加adalora

    LLaMA-Factory添加adalora

    感謝https://github.com/tsingcoo/LLaMA-Efficient-Tuning/commit/f3a532f56b4aa7d4200f24d93fade4b2c9042736和https://github.com/huggingface/peft/issues/432的幫助。 1. 修改src/llmtuner/hparams/finetuning_args.py代碼 在FinetuningArguments中修改finetuning_type,添加target_r和init_r 修改__post_init__函數(shù) 2. 修改src/llmtuner/tuner/core/adapter

    2024年01月17日
    瀏覽(26)
  • Llama3-8B+ LLaMA-Factory 中文微調

    Llama3是目前開源大模型中最優(yōu)秀的模型之一,但是原生的Llama3模型訓練的中文語料占比非常低,因此在中文的表現(xiàn)方便略微欠佳! 本教程就以Llama3-8B-Instruct開源模型為模型基座,通過開源程序LLaMA-Factory來進行中文的微調,提高Llama3的中文能力!LLaMA-Factory是一個開源的模型訓

    2024年04月27日
    瀏覽(31)
  • Llama-Factory的baichuan2微調

    Llama-Factory的baichuan2微調

    Llama-Factory:https://github.com/hiyouga/LLaMA-Factory/tree/main 請使用? ?來啟用 QLoRA 訓練。 (1)獎勵模型訓練 (2)PPO訓練(PPO訓練需要先進行上一步RM的訓練,然后導入微調后模型和RM進行訓練輸出) ? ? ? ?大規(guī)模無監(jiān)督語言模型(LMs)雖然可以學習廣泛的世界知識和一些推理技能

    2024年02月05日
    瀏覽(20)
  • 源2.0大模型適配LLaMA-Factory框架!

    源2.0大模型適配LLaMA-Factory框架!

    近日, 源2.0開源大模型與LLaMA-Factory框架完成全面適配 ,用戶通過LLaMA-Factory,即可快捷、高效地對不同參數(shù)規(guī)模的源2.0基礎模型進行全量微調及高效微調,輕松實現(xiàn)專屬大模型。 LLM(大語言模型)微調,是指在大模型的基礎上,針對特定任務或領域進行調整和優(yōu)化,以提升

    2024年01月21日
    瀏覽(20)
  • 從零開始的LLaMA-Factory的指令增量微調

    從零開始的LLaMA-Factory的指令增量微調

    大模型,包括部署微調prompt/Agent應用開發(fā)、知識庫增強、數(shù)據(jù)庫增強、知識圖譜增強、自然語言處理、多模態(tài)等大模型應用開發(fā)內容 從0起步,揚帆起航。 大模型應用向開發(fā)路徑及一點個人思考 大模型應用開發(fā)實用開源項目匯總 大模型問答項目問答性能評估方法 大模型數(shù)據(jù)

    2024年04月09日
    瀏覽(31)
  • 安裝LLaMA-Factory微調chatglm3,修改自我認知

    安裝LLaMA-Factory微調chatglm3,修改自我認知

    安裝git clone https://github.com/hiyouga/LLaMA-Factory.git conda create -n llama_factory python=3.10 conda activate llama_factory cd LLaMA-Factory pip install -r requirements.txt 之后運行 單卡訓練, CUDA_VISIBLE_DEVICES=0 python src/train_web.py,按如下配置 demo_tran.sh ? export_model.sh ? cli_demo.sh 注意合并模型的時候,最后復制

    2024年02月04日
    瀏覽(28)
  • LLaMA-Factory微調(sft)ChatGLM3-6B保姆教程

    LLaMA-Factory微調(sft)ChatGLM3-6B保姆教程

    下載LLaMA-Factory 下載ChatGLM3-6B 下載ChatGLM3 windows下載CUDA ToolKit 12.1 (本人是在windows進行訓練的,顯卡GTX 1660 Ti) CUDA安裝完畢后,通過指令 nvidia-smi 查看 1、選擇下載目錄:E:llm-trainLLaMA-Factory,并打開 2、創(chuàng)建新的python環(huán)境,這里使用conda創(chuàng)建一個python空環(huán)境,選擇python3.10 參考

    2024年04月13日
    瀏覽(33)
  • 快速上手!LLaMa-Factory最新微調實踐,輕松實現(xiàn)專屬大模型

    快速上手!LLaMa-Factory最新微調實踐,輕松實現(xiàn)專屬大模型

    Yuan2.0(https://huggingface.co/IEITYuan)是浪潮信息發(fā)布的新一代基礎語言大模型,該模型擁有優(yōu)異的數(shù)學、代碼能力。自發(fā)布以來,Yuan2.0已經受到了業(yè)界廣泛的關注。當前Yuan2.0已經開源參數(shù)量分別是102B、51B和2B的3個基礎模型,以供研發(fā)人員做進一步的開發(fā)。 LLM(大語言模型)微

    2024年01月20日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包