準備工作
- 運行前確保拉取倉庫最新版代碼:
git pull
- 確保機器有足夠的內存加載完整模型(例如7B模型需要13-15G)以進行合并模型操作。
-
務必確認基模型和下載的LoRA模型完整性,檢查是否與SHA256.md所示的值一致,否則無法進行合并操作。原版LLaMA包含:
tokenizer.model
、tokenizer_checklist.chk
、consolidated.*.pth
、params.json
- 主要依賴庫如下(python>=3.9),請安裝指定版本,否則合并后無法比對SHA256校驗值:
pip install torch==1.13.1 pip install transformers==4.28.1 pip install sentencepiece==0.1.97 pip install peft==0.3.0
注意:經過多方比對,HuggingFace模型庫中的elinas/llama-7b-hf-transformers-4.29
與原版llama模型離線轉換為HF格式后的SHA256一致(已驗證7B/13B/33B)。如果你要使用,則應確保滿足相應使用許可,我們不對其合規(guī)性做出任何保證(use at your own risk)。文章來源地址http://www.zghlxwxcb.cn/news/detail-535793.html
文章來源:http://www.zghlxwxcb.cn/news/detail-535793.html
到了這里,關于LLM-LLaMA:手動模型轉換與合并【Step 1: 將原版LLaMA模型轉換為HF(HuggingFace)格式;Step 2: 合并LoRA權重,生成全量模型權重】的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!