下載chatglm2-6b模型文件
https://huggingface.co/THUDM/chatglm2-6b
*** 國內(nèi)推薦,國內(nèi)推薦,國內(nèi)推薦-1 ***
https://aifasthub.com/models/THUDM
*** 國內(nèi)推薦-2 ***
https://hf-mirror.com/THUDM/chatglm2-6b
下載chatglm3-6b模型文件
https://huggingface.co/THUDM/chatglm3-6b
*** 國內(nèi)推薦 ***
https://hf-mirror.com/THUDM/chatglm3-6b
方法一:huggingface頁面直接點擊下載
一個一個下載,都要下載
方法二:snapshot_download下載文件
可以使用如下代碼下載
創(chuàng)建下載環(huán)境
conda create --name hfhub python=3.10
conda activate hfhub
安裝
pip install huggingface_hub -i https://pypi.tuna.tsinghua.edu.cn/simple
編寫代碼
down_glm2.py
```
from huggingface_hub import snapshot_download
import sys
repo_id = "THUDM/chatglm2-6b"
local_dir = "/opt/models/chatglm2-6b/"
local_dir_use_symlinks = False
revision = "main"
snapshot_download(repo_id=repo_id,
local_dir=local_dir,
local_dir_use_symlinks=local_dir_use_symlinks,
revision=revision)
```
snapshot_download其他參數(shù)
只允許下載部分類型的文件(以JSON為例)
allow_patterns=‘*.json’,
不允許下載部分類型的文件(以JSON為例)
ignore_patterns=[‘*.json’]文章來源:http://www.zghlxwxcb.cn/news/detail-620728.html
執(zhí)行下
python down_glm2.py
如果有超時可以多試幾次,
或allow_patterns指定具體文件
例如:
snapshot_download(repo_id=repo_id,
local_dir=local_dir,
local_dir_use_symlinks=local_dir_use_symlinks,
allow_patterns='pytorch_model-00001-of-00007.bin',
revision=revision)
方法三:清華云盤
清華云盤
https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/
方法四:異型島社區(qū)版
https://aliendao.cn/models/THUDM
上面搜索下看是否有需要的模型可以下,模型目前不是太全
系列文章
第一篇-ChatGLM-webui-Windows安裝部署-CPU版
第二篇-二手工作站配置
第三篇-Tesla P40+CentOS-7+CUDA 11.7 部署實踐
第四篇-Miniconda3-CentOS7-安裝
第五篇-ChatGLM2-6B|ChatGLM3-6B模型下載
第六篇-ChatGLM2-6B-CentOS安裝部署-GPU版文章來源地址http://www.zghlxwxcb.cn/news/detail-620728.html
到了這里,關(guān)于第五篇-ChatGLM2-6B模型下載的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!