国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程

這篇具有很好參考價(jià)值的文章主要介紹了清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

感謝清華大學(xué)開(kāi)源的ChatGLM2-6B軟件,讓我們國(guó)人有屬于自己的AI聊天機(jī)器人,期待新版本的推出。

前期準(zhǔn)備:

1.電腦配置 (低于以下配置無(wú)法安裝)

python版本要求:3.8以上
沒(méi)有安裝python的沒(méi)有關(guān)系,我們?cè)谙旅姘惭banaconda中會(huì)自動(dòng)生成python,有了python的建議刪除,通過(guò)anaconda安裝python以便于后面創(chuàng)建虛擬環(huán)境。

windows系統(tǒng):Windows 10 以上,推薦N卡(NVIDIA顯卡20系列以上)
注意:處理器為AMD容易報(bào)錯(cuò),intel的不容易報(bào)錯(cuò),配置越高最后的響應(yīng)速度越快。
查看:按住win+e,點(diǎn)此電腦,右鍵點(diǎn)屬性即可查看自己電腦系統(tǒng)和配置

顯卡:6G以上GPU
如何看電腦的顯卡內(nèi)存(操作如下):
按住Ctrl + Shift + ESC跳出界面,選擇性能,選擇GPU0/GPU1
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
查看專屬GPU內(nèi)存:因?yàn)镃hatGLM2內(nèi)存要求6GB以上才可以發(fā)揮出性能要求。

下表為ChatGLM2-2B的根據(jù)顯存大小決定的問(wèn)答性能。

量化等級(jí) 最低 GPU 顯存(推理) 最低 GPU 顯存(高效參數(shù)微調(diào))
FP16(無(wú)量化) 13 GB 14 GB
INT8 8 GB 9 GB
INT4 6 GB 7 GB

2.安裝anaconda

從anaconda官網(wǎng),推薦最新版anaconda,下載鏈接: anaconda,進(jìn)去之后點(diǎn)Download。細(xì)節(jié)具體教程詳見(jiàn): anaconda安裝教程
自動(dòng)配置環(huán)境變量是一定要打勾的,對(duì)自己不會(huì)配置環(huán)境變量的人!
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
安裝完成之后:win + R 輸入cmd調(diào)出命令框。
輸入命令1:

conda -V

出現(xiàn)conda的版本如下:
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
輸入命令2:

python

出現(xiàn)python版本如下:

清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
這里anaconda就安裝完畢了,關(guān)閉命令框即可。

3.安裝對(duì)應(yīng)版本的CUDA

按住win + R 調(diào)出命令終端,輸出cmd
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
查看你NVIDIA版本,命令如下:

nvidia-smi

清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
查看到本機(jī)可裝CUDA版本最高為12.0,版本向下兼容,意思就是CUDA 12.0及以下版本的都可以安裝,但一般不建議使用最新版本的。
CUDA安裝鏈接如下: CUDA.
選擇CUDA Toolkit11.8.0
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
根據(jù)自己的win系統(tǒng)選擇對(duì)應(yīng)的下載即可。
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
具體教程見(jiàn):鏈接: CUDA安裝教程.
安裝完后,注意需要看下系統(tǒng)環(huán)境變量中地址有沒(méi)有相應(yīng)版本的cuda,比如我的電腦就是配置了下面幾個(gè)環(huán)境變量 (我之前安裝11.7,現(xiàn)在推薦11.8)
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
除上面兩個(gè)之外 ,還可以加入以下環(huán)境變量,以保證不會(huì)出錯(cuò)。我沒(méi)配置下面兩個(gè),也沒(méi)出錯(cuò),所以大家根據(jù)實(shí)際情況選擇是否加入下面兩個(gè)環(huán)境配置。

C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.7\extras\CUPTI\lib64
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.7\include
不配置可能會(huì)報(bào)錯(cuò),Could not load dynamic library ‘cudart64_110.dll’; dlerror: cudart64_110.dll not found

同理,如上:win+R輸出cmd 調(diào)出命令行
輸入命令1:

nvcc -V

出現(xiàn)NVIDIA版本號(hào)為你下載的版本號(hào)一致即可,關(guān)閉命令框。

4.配置ChatGLM2-6B Conda環(huán)境

按照上面步驟安裝完了anaconda之后,按住win + R輸入cmd。輸入以下命令,新建一個(gè)名字為ChatGLM2B的環(huán)境。

conda create --name ChatGLM2B python==3.8.10

新建環(huán)境過(guò)程中選擇y,進(jìn)入下一步
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
安裝成功之后如下:
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
激活ChatGLM的環(huán)境

conda activate ChatGLM2B

此時(shí)你的前面就出現(xiàn)了一個(gè)如下圖(ChatGLM2B的虛擬環(huán)境):
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源

6.現(xiàn)在在虛擬環(huán)境下安裝pytorch(版本一致)

接上述(ChatGLM2B虛擬環(huán)境)命令框:安裝GPU版本的pytorch,(上面我們的CUDA安裝的11.8版本),pytorch也要選擇11.8版本,否則后面開(kāi)始報(bào)錯(cuò)),鏈接如下: pytorch.
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
在命令行輸入下面命令即可:torch11.8版本

conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia

運(yùn)行結(jié)果如下:
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
輸入y:
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
出現(xiàn)done,下載即完成:
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
如何在下面命令行輸入下面命令:

python

出現(xiàn)python版本:
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
依次在輸入:

import torch
print(torch.cuda.is_available())

出現(xiàn)True即為安裝成功
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
輸入:

exit()

清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
重新回到ChatGLM2的虛擬環(huán)境。

ChatGLM2-6B最新版模型環(huán)境部署及安裝

1.源碼下載

方法1:ChatGLM2-6B 鏈接:ChatGLM2-6B.
有時(shí)候沒(méi)有魔法上網(wǎng)進(jìn)不去
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
點(diǎn)Code,點(diǎn)Dowmload ZIP,即可下載。

方法2:直接使用git命令clone (這個(gè)需要Git軟件)
想采用這種方式下的小伙伴先下一個(gè)Git,具體教程: Git下載安裝.
下載之后以后就可以git clone了

git clone https://github.com/THUDM/ChatGLM-6B.git

下載不了的小伙伴們也沒(méi)有關(guān)系,我已經(jīng)將所有ChatGLM2-6B所需的所有插件都打開(kāi)放入百度網(wǎng)盤,如果需要請(qǐng)關(guān)注抖音號(hào):cqupt_xr_1213。

下載完成之后,將下載好的文件放在除C盤之外的磁盤里面,推薦E/F盤
我的如下:
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
在該路徑下新建一個(gè)model文件 (為了后面的12G的模型下載)
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源

2.ChatGLM2-6B的模型下載

從: hugging face.下載所有文件,放在model文件下。 (全部下就對(duì)了)
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
其中模型文件(大于 1G 的)如果下載速度慢,可以在國(guó)內(nèi)清華云源中單獨(dú)下載這幾個(gè)模型文件(其他這個(gè)源沒(méi)有的文件還是需要在 huggingface 上下載)
國(guó)內(nèi)清華云源鏈接: 鏡像文件.
下載之后,放到model文件下,顯示如圖:
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源

3.相關(guān)庫(kù)安裝:

接上面的虛擬環(huán)境命令框,最先是C盤,我們切換在自己下的盤,輸入E:。
不會(huì)切盤的去搜網(wǎng)上教程
在虛擬環(huán)境下進(jìn)入ChatGLM-6B安裝的目錄
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
輸入命令:

pip3 install -r requirements.txt

清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
直到出現(xiàn)successfully built ffmpy即可:
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源

4.修改web_demo.py的數(shù)據(jù)

在運(yùn)行之前,需要先修改web_demo.py文件中的模型地址,具體為第5行與第6行,具體如下:沒(méi)有pycharm的我們用記事本打開(kāi)
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
修改為:我的顯存為6G,所以我改為4 bit量化
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
溫馨提示,根據(jù)實(shí)際顯卡顯存 (如何看自己的顯存,前面我已經(jīng)講過(guò)了,自己的顯存要和下面代碼對(duì)應(yīng),不對(duì)應(yīng)就會(huì)報(bào)錯(cuò)并且燒壞顯卡,注意注意?。。?/mark>,可以更改第6行關(guān)于model運(yùn)行方式:

# 6G 顯存可以 4 bit 量化
model = AutoModel.from_pretrained("model", trust_remote_code=True).half().quantize(4).cuda()

# 10G 顯存可以 8 bit 量化
model = AutoModel.from_pretrained("model", trust_remote_code=True).half().quantize(8).cuda()

# 14G 以上顯存可以直接不量化,博主顯存為16G選擇的就是這個(gè)
model = AutoModel.from_pretrained("model", trust_remote_code=True).half().cuda()

在終端輸入命令,注意不要用python3,因?yàn)榭赡軙?huì)使用到其它環(huán)境下的python。

python web_demo.py

清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
接著瀏覽器會(huì)自動(dòng)打開(kāi):
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
視頻如下:
清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程,Web前端設(shè)計(jì),開(kāi)源
搭建就完成了,如果要調(diào)用API的詳情請(qǐng)參考Github的API部署。

參考資料

ChatGLM-6B博客.
GitHub的ChatGLM2-6B鏈接.文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-590945.html

到了這里,關(guān)于清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包