LangChain+ChatGLM大模型應(yīng)用落地實(shí)踐(一)
LLaMa模型GitHub地址
git lfs clone https://huggingface.co/huggyllama/llama-7b
添加LLaMa模型配置
在Langchain-ChatGLM/configs/model_config.py中l(wèi)lm_model_dict添加
"llama-7b": {
"name": "llama-7b",
"pretrained_model_name": "/home/user/data/your_path/llama-7b",
"local_model_path": "/home/user/data/your_path/llama-7b",
"provides": "LLamaLLMChain"
}
啟用LLaMa模型
進(jìn)入Web UI選擇LLaMa模型文章來源:http://www.zghlxwxcb.cn/news/detail-629610.html
LLAMA-7B(中文提問當(dāng)作翻譯回答了…看來訓(xùn)練的中文語料不太行,但是英文也算是答對(duì)了)
具體為什么LLaMa為什么這樣回答,等待后續(xù)。文章來源地址http://www.zghlxwxcb.cn/news/detail-629610.html
到了這里,關(guān)于LangChain+ChatGLM整合LLaMa模型(二)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!