国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

ChatGLM2-6B在windows下的部署

這篇具有很好參考價(jià)值的文章主要介紹了ChatGLM2-6B在windows下的部署。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

2023-08-10 ChatGLM2-6B在windows下的部署

一、部署環(huán)境

1、Windows 10 專業(yè)版, 64位,版本號(hào):22H2,內(nèi)存:32GB
ChatGLM2-6B在windows下的部署,大模型,語(yǔ)言模型,chatgpt

2、已安裝CUDA11.3
ChatGLM2-6B在windows下的部署,大模型,語(yǔ)言模型,chatgpt

3、已安裝Anaconda3 64bit版本
ChatGLM2-6B在windows下的部署,大模型,語(yǔ)言模型,chatgpt

4、有顯卡NVIDIA GeForce RTX 3060 Laptop GPU
ChatGLM2-6B在windows下的部署,大模型,語(yǔ)言模型,chatgpt

二、從huggingface下載chatglm2-6b模型文件

1、進(jìn)入Anaconda Powershell Prompt

2、創(chuàng)建保存chatglm2-6b的huggingface模型的公共目錄。之所以創(chuàng)建一個(gè)公共目錄,是因?yàn)檫@個(gè)模型文件是可以被各種應(yīng)用共用的。注意創(chuàng)建目錄所在磁盤至少要有30GB的空間,因?yàn)閏hatglm2-6b的模型文件至少有23GB大小。
mkdir -p D:_ChatGPT_common_test
ChatGLM2-6B在windows下的部署,大模型,語(yǔ)言模型,chatgpt

3、進(jìn)入剛剛創(chuàng)建的目錄,在這里下載chatglm2-6b的huggingface模型文件。注意下載前要提前打開fanqiang軟件,否則下載無法成功。模型文件大概23GB,因此下載時(shí)間很長(zhǎng),需要耐心等待。下載過程中可能多次報(bào)“Recv failure: Connection was reset”錯(cuò)誤,遇到錯(cuò)誤就重新下載,直到成功為止。
cd D:_ChatGPT_common_test
git clone https://huggingface.co/THUDM/chatglm2-6b
ChatGLM2-6B在windows下的部署,大模型,語(yǔ)言模型,chatgpt

4、下載時(shí)如果報(bào)如下錯(cuò)誤:
Errors logged to ‘D:_ChatGPT_common_test\chatglm2-6b.git\lfs\logs\20230810T095928.1917897.log’.
Use git lfs logs last to view the log.
error: external filter ‘git-lfs filter-process’ failed
fatal: pytorch_model-00001-of-00007.bin: smudge filter lfs failed
warning: Clone succeeded, but checkout failed.
You can inspect what was checked out with ‘git status’
and retry with ‘git restore --source=HEAD ??’
則用如下方式解決后重新下載:
git lfs clean --force

三、從github下載chatglm2-6b應(yīng)用文件

1、進(jìn)入Anaconda Powershell Prompt

2、創(chuàng)建一個(gè)目錄,并進(jìn)入該目錄
mkdir -p D:_ChatGPT\langchain-chatglm_test
cd D:_ChatGPT\langchain-chatglm_test
ChatGLM2-6B在windows下的部署,大模型,語(yǔ)言模型,chatgpt

3、在該目錄下載chatglm2-6b應(yīng)用文件,這個(gè)下載很快。
git clone https://github.com/THUDM/ChatGLM2-6B
ChatGLM2-6B在windows下的部署,大模型,語(yǔ)言模型,chatgpt

四、創(chuàng)建虛擬環(huán)境并安裝依賴包

1、進(jìn)入Anaconda Powershell Prompt

2、創(chuàng)建虛擬環(huán)境
conda create -n langchain-chatglm_test python=3.10

3、進(jìn)入虛擬環(huán)境
conda activate langchain-chatglm_test

4、進(jìn)入chatglm2-6b應(yīng)用文件所在目錄
cd D:_ChatGPT\langchain-chatglm_test\ChatGLM2-6B

5、安裝相關(guān)依賴
pip install -r requirements.txt
pip install transformers4.26.1
pip install torch
1.12.1+cu113??-f https://download.pytorch.org/whl/cu113/torch_stable.html

五、修改文件

1、進(jìn)入D:_ChatGPT\langchain-chatglm_test\ChatGLM2-6B目錄,用編輯器打開web_demo.py文件。

2、修改如下兩處的模型地址,用實(shí)際的huggingface模型下載地址取代"/mnt/workspace/chatglm2-6b",例如:

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm2-6b", trust_remote_code=True).cuda()

改為

tokenizer = AutoTokenizer.from_pretrained("D:\_ChatGPT\_common\chatglm2-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("D:\_ChatGPT\_common\chatglm2-6b", trust_remote_code=True).cuda()

3、由于顯存可能不夠,可采用模型量化方式縮小模型,修改如下:

model = AutoModel.from_pretrained("D:\_ChatGPT\_common\chatglm2-6b", trust_remote_code=True).quantize(8).cuda()

如果用INT8量化還不行,可以改為INT4量化。

4、將文件對(duì)應(yīng)處修改為如下,使得本地可以訪問

demo.queue().launch(share=True, inbrowser=True, server_name='0.0.0.0', server_port=7860)

六、啟動(dòng)應(yīng)用

1、進(jìn)入Anaconda Powershell Prompt

2、進(jìn)入虛擬環(huán)境
conda activate langchain-chatglm_test

3、進(jìn)入chatglm2-6b應(yīng)用文件所在目錄
cd D:_ChatGPT\langchain-chatglm_test\ChatGLM2-6B

4、啟動(dòng)應(yīng)用。注意啟動(dòng)應(yīng)用前要關(guān)閉fanqiang,否則可以啟動(dòng),但運(yùn)行時(shí)報(bào)錯(cuò)。
python web_demo.py
ChatGLM2-6B在windows下的部署,大模型,語(yǔ)言模型,chatgpt

七、報(bào)錯(cuò)及處理

1、報(bào)錯(cuò):AssertionError: Torch not compiled with CUDA enabled
處理:pip install torch==1.12.1+cu113??-f https://download.pytorch.org/whl/cu113/torch_stable.html

2、報(bào)錯(cuò):ModuleNotFoundError: No module named ‘transformers_modules.chatglm2-6b’
處理:pip install transformers==4.26.1

八、參考文檔

LangChain + ChatGLM2-6B 搭建個(gè)人專屬知識(shí)庫(kù)文章來源地址http://www.zghlxwxcb.cn/news/detail-645288.html

到了這里,關(guān)于ChatGLM2-6B在windows下的部署的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 使用Triton部署chatglm2-6b模型

    NVIDIA Triton Inference Server是一個(gè)針對(duì)CPU和GPU進(jìn)行優(yōu)化的云端和推理的解決方案。 支持的模型類型包括TensorRT、TensorFlow、PyTorch(meta-llama/Llama-2-7b)、Python(chatglm)、ONNX Runtime和OpenVino。 NVIDIA Triton Server是一個(gè)高性能的推斷服務(wù)器,具有以下特點(diǎn): 1. 高性能:Triton Server為使用GPU進(jìn)行推

    2024年02月08日
    瀏覽(20)
  • ChatGLM2-6B 大語(yǔ)言模型本地搭建

    ChatGLM2-6B 大語(yǔ)言模型本地搭建

    ChatGLM2-6B 是清華 NLP 團(tuán)隊(duì)于不久前發(fā)布的中英雙語(yǔ)對(duì)話模型,它具備了強(qiáng)大的問答和對(duì)話功能。擁有最大32K上下文,并且在授權(quán)后可免費(fèi)商用! ChatGLM2-6B的6B代表了訓(xùn)練參數(shù)量為60億,同時(shí)運(yùn)用了模型量化技術(shù),意味著用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下

    2024年01月21日
    瀏覽(47)
  • ChatGLM2-6B! 我跑通啦!本地部署+微調(diào)(windows系統(tǒng))

    ChatGLM2-6B! 我跑通啦!本地部署+微調(diào)(windows系統(tǒng))

    記錄一下此時(shí)此刻,2023年7月8日22點(diǎn)04,從ChatGLM2-6B在7月4日開放了ptuning到此時(shí)此刻,ChatGLM2-6B的微調(diào)終于被哥們跑通了! 從 本地部署ChatGLM2-6B 到 本地進(jìn)行P-tuning微調(diào) ,再到最后的 模型檢測(cè) ,哥們?nèi)芡耍?這里非常感謝ChatGLM2-6B|開源本地化語(yǔ)言模型這篇博客!因?yàn)槲也贾?/p>

    2024年02月16日
    瀏覽(22)
  • Windows下cpu部署運(yùn)行清華大學(xué)ChatGLM-6B語(yǔ)言模型(詳解)

    ChatGLM-6B 清華大學(xué)實(shí)現(xiàn)的 一個(gè)開源的、支持中英雙語(yǔ) 、 支持圖像理解 的對(duì)話語(yǔ)言模型 。 它 基于

    2024年02月12日
    瀏覽(18)
  • 以大語(yǔ)言模型ChatGLM2-6B為后臺(tái),打造個(gè)人語(yǔ)音交互機(jī)器人Demo

    以大語(yǔ)言模型ChatGLM2-6B為后臺(tái),打造個(gè)人語(yǔ)音交互機(jī)器人Demo

    隨著以ChatGLM2-6B為代表的開源大型語(yǔ)言模型的興起,人工智能革命正席卷全球…… ChatGLM2-6B這一代表性的開源大型模型,以其易于部署、適度的參數(shù)量和強(qiáng)大的中文處理能力,為個(gè)人用戶提供了在個(gè)人顯卡上部署大型模型的便捷途徑。 然而,在大型語(yǔ)言模型領(lǐng)域,人機(jī)交互仍

    2024年02月05日
    瀏覽(20)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain實(shí)踐

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已經(jīng)正式發(fā)布,引入了如下新特性: ①. 基座模型升級(jí),性能更強(qiáng)大,在中文C-Eval榜單中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 對(duì)學(xué)術(shù)研究完全開放,允許申請(qǐng)商用授權(quán)。 目前大多數(shù)部署方案采用的是

    2024年02月12日
    瀏覽(27)
  • Windows環(huán)境下搭建chatGLM2-6B-int4量化版模型(圖文詳解-成果案例)

    Windows環(huán)境下搭建chatGLM2-6B-int4量化版模型(圖文詳解-成果案例)

    目錄 一、ChatGLM2-6介紹 二、環(huán)境準(zhǔn)備 1. 硬件環(huán)境 2. TDM-GCC安裝 3.git安裝 4.Anaconda安裝 三、模型安裝 1.下載ChatGLM2-6b和環(huán)境準(zhǔn)備 方式一:git命令 方式二:手動(dòng)下載? 2.下載預(yù)訓(xùn)練模型 在Hugging Face HUb下載(掛VPN訪問) (1)git命令行下載: (2)手動(dòng)下載(建議) 3.模型使用(

    2024年03月13日
    瀏覽(48)
  • ChatGLM2-6B_ An Open Bilingual Chat LLM _ 開源雙語(yǔ)對(duì)話語(yǔ)言模型

    更強(qiáng)大的性能 :基于 ChatGLM 初代模型的開發(fā)經(jīng)驗(yàn),我們?nèi)嫔?jí)了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 [GLM]的混合目標(biāo)函數(shù),經(jīng)過了 1.4T 中英標(biāo)識(shí)符的預(yù)訓(xùn)練與人類偏好對(duì)齊訓(xùn)練,評(píng)測(cè)結(jié)果顯示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BB

    2024年04月14日
    瀏覽(26)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain實(shí)踐 | 京東云技術(shù)團(tuán)隊(duì)

    chatglm2-6b模型在9n-triton中部署并集成至langchain實(shí)踐 | 京東云技術(shù)團(tuán)隊(duì)

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已經(jīng)正式發(fā)布,引入了如下新特性: ①. 基座模型升級(jí),性能更強(qiáng)大,在中文C-Eval榜單中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 對(duì)學(xué)術(shù)研究完全開放,允許申請(qǐng)商用授權(quán)。 目前大多數(shù)部署方案采用的是

    2024年02月12日
    瀏覽(25)
  • ChatGLM2-6B 部署

    ChatGLM2-6B 部署

    這是ChatGLM2-6B 部署的閱讀筆記,主要介紹了ChatGLM2-6B模型的部署和一些原理的簡(jiǎn)單解釋。 它是單卡開源的對(duì)話模型。 充分的中英雙語(yǔ)預(yù)訓(xùn)練 較低的部署門檻 FP16半精度下,需要至少13G的顯存進(jìn)行推理,甚至可以進(jìn)一步降低到10G(INT8)和6G(INT4) 更長(zhǎng)的序列長(zhǎng)度 ChatGLM-6B 序列長(zhǎng)度達(dá)

    2024年02月09日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包