国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Ubuntu部署ChatGLM2-6B踩坑記錄

這篇具有很好參考價(jià)值的文章主要介紹了Ubuntu部署ChatGLM2-6B踩坑記錄。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

目錄

一、環(huán)境配置

1、安裝anaconda或者miniconda進(jìn)行環(huán)境的管理

2、安裝CUDA

3、環(huán)境安裝

二、配置加載模型

1、建立THUDM文件夾

三、遇到的問題

1、pip install -r requirements.txt

?2、運(yùn)行python web_demo.py遇到的錯(cuò)誤——TypeError: Descriptors cannot not be created directly.

?3、運(yùn)行python web_demo.py遇到的錯(cuò)誤——AttributeError: module 'numpy' has no attribute 'object'.

四、網(wǎng)頁版Demo

基于Streamlit的網(wǎng)頁版Demo

五、命令行Demo

六、總結(jié)


前言:ChatGLM2-6B 是開源中英雙語對話模型ChatGLM-6B的第二代版本,在保留了初代模型對話流暢、部署門檻較低等眾多優(yōu)秀特性的基礎(chǔ)之上,ChatGLM2-6B擁有更強(qiáng)大的性能、更長的上下文、更高的推理和更開放的協(xié)議。

項(xiàng)目倉庫鏈接:https://github.com/THUDM/ChatGLM2-6B

一、環(huán)境配置

1、安裝anaconda或者miniconda進(jìn)行環(huán)境的管理

安裝鏈接:ubuntu安裝Miniconda_Baby_of_breath的博客-CSDN博客

2、安裝CUDA

Ubuntu 安裝 CUDA11.3_計(jì)算機(jī)視覺從零學(xué)的博客-CSDN博客

3、環(huán)境安裝

git clone https://github.com/THUDM/ChatGLM2-6B  #下載倉庫
cd ChatGLM2-6B  #進(jìn)入文件夾

#創(chuàng)建conda環(huán)境
conda create -n chatglm python==3.8
conda activate chatglm  #進(jìn)入創(chuàng)建的conda環(huán)境

#使用pip安裝所需要的依賴項(xiàng)
pip install -r requirements.txt

二、配置加載模型

1、建立THUDM文件夾

mkdir THUDM #在ChatGLM2-6B項(xiàng)目文件夾內(nèi)建立

mkdir chatglm2-6b  #將下載的模型和配置文件全部放入到這文件夾中

#文件位置瀏覽
/home/wxy/ChatGLM2-6B/THUDM/chatglm2-6b

然后在huggingface中將所有的模型文件和配置文件下載下來,建議手動(dòng)下載然后放入到ChatGLM2-6B/THUDM/chatglm2-6b中。

chatglm2-6b ubuntu,linux,人工智能,自然語言處理,語言模型
將上述huggingface中的模型配置文件下載

三、遇到的問題

1、pip install -r requirements.txt

當(dāng)pip安裝requirements.txt時(shí)可能會(huì)遇到一些依賴項(xiàng)無法安裝,如下圖所示:

chatglm2-6b ubuntu,linux,人工智能,自然語言處理,語言模型

解決方法:直接pip缺少的依賴項(xiàng)

pip install oauthlib==3.0.0
pip install tensorboard==1.15
pip install urllib3==1.25.0
pip install requests-oauthlib==1.3.1
pip install torch-tb-profiler==0.4.1 
pip install google-auth==2.18.0 

?2、運(yùn)行python web_demo.py遇到的錯(cuò)誤——TypeError: Descriptors cannot not be created directly.

chatglm2-6b ubuntu,linux,人工智能,自然語言處理,語言模型
TypeError: Descriptors cannot not be created directly.

出現(xiàn)上面截圖的錯(cuò)誤TypeError: Descriptors cannot not be created directly。表示protobuf?庫的版本問題導(dǎo)致的。錯(cuò)誤提示提到需要使用 protoc 的版本大于等于 3.19.0 重新生成代碼。

解決方法:

pip uninstall protobuf  #卸載protobuf

pip install protobuf==3.19.0  #重新安裝3.19.0版本的

?3、運(yùn)行python web_demo.py遇到的錯(cuò)誤——AttributeError: module 'numpy' has no attribute 'object'.

chatglm2-6b ubuntu,linux,人工智能,自然語言處理,語言模型
AttributeError: module 'numpy' has no attribute 'object'

?如果出現(xiàn)了AttributeError: module 'numpy' has no attribute 'object'這個(gè)錯(cuò)誤,解決方案如下:

pip uninstall numpy  #卸載numpy

pip install numpy==1.23.4  #安裝numpy1.23.4

四、網(wǎng)頁版Demo

首先安裝 Gradio:

pip install gradio

然后運(yùn)行倉庫中的web_demo.py,就可以顯示如下web頁面

python web_demo.py

chatglm2-6b ubuntu,linux,人工智能,自然語言處理,語言模型

基于Streamlit的網(wǎng)頁版Demo

chatglm2-6b ubuntu,linux,人工智能,自然語言處理,語言模型

五、命令行Demo

運(yùn)行倉庫中的cli_demo.py,在終端中就會(huì)顯示如下頁面。程序會(huì)在命令行中進(jìn)行交互式的對話,在命令行中輸入指示并回車即可生成回復(fù),輸入 clear可以清空對話歷史,輸入 stop終止程序。

python cli_demo.py

chatglm2-6b ubuntu,linux,人工智能,自然語言處理,語言模型

六、總結(jié)

總體來說ChatGLM2-6B表現(xiàn)的效果還是十分出色的,推理的速度也是非常快,而且輸出的篇幅比gpt要多還更有邏輯性,只不過在進(jìn)行網(wǎng)頁版demo和命令行demo的時(shí)候會(huì)占用很多的顯存,因此也是比較消耗計(jì)算量的,大概占用了13GB的顯存,但是倉庫中也給出了低成本的部署,這一點(diǎn)還是比較人性化的。由于我使用的顯卡是RTX3090,顯存24GB所以我也就沒有進(jìn)行低成本的部署,感興趣的可以去試一試。文章來源地址http://www.zghlxwxcb.cn/news/detail-824552.html

到了這里,關(guān)于Ubuntu部署ChatGLM2-6B踩坑記錄的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 使用Triton部署chatglm2-6b模型

    NVIDIA Triton Inference Server是一個(gè)針對CPU和GPU進(jìn)行優(yōu)化的云端和推理的解決方案。 支持的模型類型包括TensorRT、TensorFlow、PyTorch(meta-llama/Llama-2-7b)、Python(chatglm)、ONNX Runtime和OpenVino。 NVIDIA Triton Server是一個(gè)高性能的推斷服務(wù)器,具有以下特點(diǎn): 1. 高性能:Triton Server為使用GPU進(jìn)行推

    2024年02月08日
    瀏覽(20)
  • 【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語言模型)

    【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語言模型)

    ChatGLM2-6B是一個(gè)開源的、支持中英雙語的對話語言模型,基于General Language Model (GLM)架構(gòu)。 ChatGLM2-6B具備的能力: 自我認(rèn)知:“介紹一下你的優(yōu)點(diǎn)” 提綱寫作:“幫我寫一個(gè)介紹ChatGLM的博客提綱” 文案寫作:“寫10條熱評(píng)文案” 信息抽?。骸畯纳鲜鲂畔⒅谐槿∪?、時(shí)間、事件

    2024年02月14日
    瀏覽(22)
  • ChatGLM2-6B在windows下的部署

    ChatGLM2-6B在windows下的部署

    1、Windows 10 專業(yè)版, 64位,版本號(hào):22H2,內(nèi)存:32GB 2、已安裝CUDA11.3 3、已安裝Anaconda3 64bit版本 4、有顯卡NVIDIA GeForce RTX 3060 Laptop GPU 1、進(jìn)入Anaconda Powershell Prompt 2、創(chuàng)建保存chatglm2-6b的huggingface模型的公共目錄。之所以創(chuàng)建一個(gè)公共目錄,是因?yàn)檫@個(gè)模型文件是可以被各種應(yīng)用

    2024年02月13日
    瀏覽(36)
  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 開源中英雙語對話模型

    【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 開源中英雙語對話模型

    項(xiàng)目地址 chatglm2-6b 下載模型 創(chuàng)建測試項(xiàng)目 創(chuàng)建虛擬環(huán)境安裝依賴 完整的venv環(huán)境 main.py 執(zhí)行 python進(jìn)程cpu使用率100.3%持續(xù)了很長時(shí)間,沒有啟用多線程?

    2024年01月20日
    瀏覽(26)
  • 從零開始學(xué)AI:ChatGLM2-6B 部署測試

    ChatGLM2-6B 是開源中英雙語對話模型 ChatGLM-6B 的第二代版本,在保留了初代模型對話流暢、部署門檻較低等眾多優(yōu)秀特性的基礎(chǔ)之上,ChatGLM2-6B 引入了如下新特性: 更強(qiáng)大的性能:基于 ChatGLM 初代模型的開發(fā)經(jīng)驗(yàn),我們?nèi)嫔?jí)了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混

    2024年04月28日
    瀏覽(22)
  • ChatGLM2-6B! 我跑通啦!本地部署+微調(diào)(windows系統(tǒng))

    ChatGLM2-6B! 我跑通啦!本地部署+微調(diào)(windows系統(tǒng))

    記錄一下此時(shí)此刻,2023年7月8日22點(diǎn)04,從ChatGLM2-6B在7月4日開放了ptuning到此時(shí)此刻,ChatGLM2-6B的微調(diào)終于被哥們跑通了! 從 本地部署ChatGLM2-6B 到 本地進(jìn)行P-tuning微調(diào) ,再到最后的 模型檢測 ,哥們?nèi)芡耍?這里非常感謝ChatGLM2-6B|開源本地化語言模型這篇博客!因?yàn)槲也贾?/p>

    2024年02月16日
    瀏覽(22)
  • 在矩池云使用ChatGLM-6B & ChatGLM2-6B

    在矩池云使用ChatGLM-6B & ChatGLM2-6B

    ChatGLM-6B 和 ChatGLM2-6B都是基于 General Language Model (GLM) 架構(gòu)的對話語言模型,是清華大學(xué) KEG 實(shí)驗(yàn)室和智譜 AI 公司于 2023 年共同發(fā)布的語言模型。模型有 62 億參數(shù),一經(jīng)發(fā)布便受到了開源社區(qū)的歡迎,在中文語義理解和對話生成上有著不凡的表現(xiàn)。 ChatGLM-6B 可以在消費(fèi)級(jí)的顯卡

    2024年02月14日
    瀏覽(18)
  • 三個(gè)開源大模型(chatglm2-6B, moss, llama)-chatglm2的測試

    chatglm2-6B 是清華大學(xué)開源的一款支持中英雙語的對話語言模型。經(jīng)過了 1.4T 中英標(biāo)識(shí)符的預(yù)訓(xùn)練與人類偏好對齊訓(xùn)練,具有62 億參數(shù)的 ChatGLM2-6B 已經(jīng)能生成相當(dāng)符合人類偏好的回答。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6G

    2024年02月11日
    瀏覽(42)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain實(shí)踐

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已經(jīng)正式發(fā)布,引入了如下新特性: ①. 基座模型升級(jí),性能更強(qiáng)大,在中文C-Eval榜單中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 對學(xué)術(shù)研究完全開放,允許申請商用授權(quán)。 目前大多數(shù)部署方案采用的是

    2024年02月12日
    瀏覽(27)
  • ChatGLM2-6B

    ChatGLM2-6B 項(xiàng)目基本情況 GitHub:https://github.com/THUDM/ChatGLM2-6B/tree/main 參考:https://mp.weixin.qq.com/s/11jCCeOpg1YbABIRLlnyvg 主要貢獻(xiàn) 更強(qiáng)大的性能:基于 ChatGLM 初代模型的開發(fā)經(jīng)驗(yàn),我們?nèi)嫔?jí)了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混合目標(biāo)函數(shù),經(jīng)過了 1.4T 中英標(biāo)識(shí)符的預(yù)

    2024年02月15日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包