GitHub:GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMA&Alpaca大語言模型+本地CPU/GPU訓練部署 (Chinese LLaMA & Alpaca LLMs)文章來源:http://www.zghlxwxcb.cn/news/detail-609791.html
中文LLaMA模型
中文LLaMA模型在原版的基礎上擴充了中文詞表,使用了中文通用純文本數(shù)據(jù)進行二次預訓練。文章來源地址http://www.zghlxwxcb.cn/news/detail-609791.html
模型名稱 | 訓練數(shù)據(jù) | 重構模型[1] | 大小[2] | LoRA下載[3] |
---|---|---|---|---|
Chinese-LLaMA-7B | 通用20G | 原版LLaMA-7B | 770M |
[百度網(wǎng)盤] [Google Drive] |
Chinese-LLaMA-Plus-7B??? | 通用120G | 原版LLaMA-7B | 790M |
到了這里,關于LLM-LLaMA中文衍生模型:Chinese-LLaMA-Alpaca【擴充詞表、Lora部分參數(shù)預訓練、微調(diào)】的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!