參考:https://github.com/huggingface/peft
https://github.com/hiyouga/LLaMA-Factory
1、LLaMA-Factory可視化界面微調(diào)chatglm2
類似工具還有流螢,注意是做中文微調(diào)訓(xùn)練這塊;來訓(xùn)練微調(diào)的chatglm2需要完整最新文件,不能是量化后的模型;另外測試下來顯卡資源要大于20來G才能順利,這邊T4單卡訓(xùn)練中間顯存不足,需要開啟4bit量化才行
1)下載github代碼
2)運(yùn)行web界面文章來源:http://www.zghlxwxcb.cn/news/detail-755242.html
CUDA_VISIBLE_DEVICES=0 python src/train_web.py
3)chatglm2代碼下載最新的:https://huggingface.co/THUDM/chatglm2-6b/tree/main
4)配置好參數(shù)即可點(diǎn)擊開始訓(xùn)練
顯卡使用:<文章來源地址http://www.zghlxwxcb.cn/news/detail-755242.html
到了這里,關(guān)于LLaMA-Factory可視化界面微調(diào)chatglm2;LoRA訓(xùn)練微調(diào)模型 簡單案例的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!