国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

CentOS7上部署langchain-chatglm或stable-diffusion可能遇到的Bug的解決方案

這篇具有很好參考價值的文章主要介紹了CentOS7上部署langchain-chatglm或stable-diffusion可能遇到的Bug的解決方案。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

第一步 官網(wǎng)官方驅動 | NVIDIA下載驅動

# 切換root賬號操作
# 進行一些依賴庫的升級也很必要, eg:
# yum -y install epel-release
# yum -y install gcc gcc-c++ kernel-headers kernel-devel dkms

# 卸載驅動和cuda(非必要操作,直接更新cuda即可)
# nvidia-uninstall
# cuda-uninstaller
#安裝(非必要操作,直接更新cuda即可)
# chmod a+x NVIDIA-Linux-x86_64-515.76.run
# ./NVIDIA-Linux-x86_64-470.86.run

# nvidia 安裝成功
# nvidia-smi

# 安裝cuda:
sh cuda_11.7.1_515.65.01_linux.run #默認更新driver從495到515,cuda從11.5到11.7
# 不要勾選 nvidia-fs(mofed是啥?)

# 成功之后按照提示添加路徑:
vim /etc/profile
export CUDA_HOME=/usr/local/cuda-11.7
export LD_LIBRARY_PATH=${CUDA_HOME}/lib64:${CUDA_HOME}/extras/CUPTI/lib64
export PATH=${CUDA_HOME}/bin:${PATH}
source /etc/profile

第二步?下載官方代碼包 ?

git clone https://github.com/imClumsyPanda/langchain-ChatGLM.git

安裝python環(huán)境,此處建議使用conda管理環(huán)境。

conda create -n glm python=3.10.6

比如glm就 conda activate glm

sd 就conda activate sd

第三步 重新更新你的cuda的支持(非常重要)

進入你的代碼目錄下

pip install -r requment.txt 

下載依賴
這里可能有的朋友會有問題會出現(xiàn)某些包下載不了,這里建議直接使用阿里源即可,在確定你的cuda版本之后(使用nvidia-smi確定cuda版本)
命令行執(zhí)行

pip uninstall torch torchvision torchaudio


卸載掉剛才pip安裝的版本!!!!因為此處安裝的版本還缺少cuda的支持,確定卸載掉之后
執(zhí)行

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cuX

此處X為你的cuda版本,例如你的cuda版本為11.8那么此處就是118。
在安裝完成后 執(zhí)行pip list,如果此處是這樣的?CentOS7上部署langchain-chatglm或stable-diffusion可能遇到的Bug的解決方案,langchain,stable diffusion,bug

那么恭喜你,成功了

第四步 下載對應的模型包

無論是chatglm-6b還是int4 int8的量化版本都可以,根據(jù)自己服務器的顯存來決定

第五步 進入代碼目錄,修改config/model_config.py文件

將里面的模型目錄修改為你本地的即可

第六步 啟動項目

python webui.py 

啟動,這一步很多人會出現(xiàn)報錯,大部分人都會報錯,但按照第三步來執(zhí)行操作,基本99%不會出問題

另外:


有少部分報錯會提示cudnn沒有運行,那是因為你真的沒有安裝cuda,直接百度搜索即可解決 。
如果報out of memory 是你的顯存太小了運行不起來。
如果代碼運行起來了,你上傳docx知識庫報錯,那么你需要安裝libreoffice擴展,看該文章https://blog.csdn.net/an129/article/details/126766228進行安裝,安裝后有少部分朋友還是會報這個錯誤,你需要把你安裝目錄加入到環(huán)境變量(/etc/profile)中,如下圖所示

CentOS7上部署langchain-chatglm或stable-diffusion可能遇到的Bug的解決方案,langchain,stable diffusion,bug
該問題即可解決。文章來源地址http://www.zghlxwxcb.cn/news/detail-579770.html

到了這里,關于CentOS7上部署langchain-chatglm或stable-diffusion可能遇到的Bug的解決方案的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • Langchain-ChatGLM配置文件參數(shù)測試

    Langchain-ChatGLM配置文件參數(shù)測試

    1 已知可能影響對話效果的參數(shù)(位于configs/model_config.py文件): 其中可能對讀取知識庫影響較大的變量有CHUNK_SIZE(單段參考上下文的長度),VECTOR_SEARCH_TOP_K(知識庫參考文段數(shù)量),和VECTOR_SEARCH_SCORE_THRESHOLD(知識庫匹配內容需要達到的最小相關度)。本實驗將通過向不同

    2024年02月16日
    瀏覽(21)
  • langchain-ChatGLM源碼閱讀:模型加載

    langchain-ChatGLM源碼閱讀:模型加載

    loader.py shared.py loader.py 在加載模型前先清空顯存 loader.py loader.py 的 _load_model 方法 auto_factory.py 的 from_pretrained 方法 包路徑:site-packages/transformers/models/auto/auto_factory.py 作用:將配置對象的類與模型類或對象建立關聯(lián),以便根據(jù)配置來獲取相應的模型類或對象。這通常用于管理不

    2024年02月12日
    瀏覽(25)
  • langchain-ChatGLM源碼閱讀:參數(shù)設置

    langchain-ChatGLM源碼閱讀:參數(shù)設置

    上下文關聯(lián)相關參數(shù): 知識相關度閾值score_threshold 內容條數(shù)k 是否啟用上下文關聯(lián)chunk_conent 上下文最大長度chunk_size 其主要作用是在所在文檔中擴展與當前query相似度較高的知識庫的內容,作為相關信息與query按照prompt規(guī)則組合后作為輸入獲得模型的回答。 獲取查詢句query嵌

    2024年02月14日
    瀏覽(25)
  • langchain-ChatGLM源碼閱讀:webui.py

    使用gradio設置頁面的視覺組件和交互邏輯,位于 webui.py 監(jiān)聽到前端的事件后調用的回調函數(shù),負責實現(xiàn)前后端交互。需要注意的一點是,chatbot中顯示新的聊天內容并不是在原來的基礎上添加,而是從頭到尾的重新打印,所以基本上每個函數(shù)都要傳舊的history和返回新的histor

    2024年02月14日
    瀏覽(20)
  • 2M大小的PDF文檔上傳到LangChain-ChatGLM知識圖譜中,大致需要的時間

    對于將2M大小的PDF文檔上傳到LangChain-ChatGLM知識圖譜中,大致需要的時間如下: PDF到文本的提取轉換:若PDF內容主要為文本,此步驟約需要1-2分鐘。 提取的文本經(jīng)過預處理與分析:此步驟需要對文本進行分詞、命名實體識別等處理,約需要2-5分鐘。 抽取文本中的結構化知識(實體、關

    2024年02月08日
    瀏覽(20)
  • 阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM

    阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM

    更新系統(tǒng) 安裝git 克隆 ChatGLM2-6B 源碼 克隆 chatglm2-6b 模型 安裝 ChatGLM2-6B 依賴 修改模型的路徑 修改成 啟動服務 啟動成功后 克隆 langchain-ChatGLM 源碼 git clone https://github.com/imClumsyPanda/langchain-ChatGLM.git 克隆模型 安裝 langchain-ChatGLM 依賴 修改配置 修改一 修改成 修改二 修改成 修改

    2024年02月15日
    瀏覽(33)
  • 大模型學習筆記(一):部署ChatGLM模型以及stable-diffusion模型

    大模型學習筆記(一):部署ChatGLM模型以及stable-diffusion模型

    平臺注冊鏈接: https://growthdata.virtaicloud.com/t/SA 注冊完成后,點擊右上角: 費用中心 ,可查看領取的算力。 https://platform.virtaicloud.com/ ChatGLM3 是智譜AI和清華大學 KEG 實驗室聯(lián)合發(fā)布的新一代對話預訓練模型。 推理速度比上一代提高了很多,雖然本教程有兩種啟動方式,但教

    2024年03月19日
    瀏覽(43)
  • AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知識庫

    AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知識庫

    手把手教你搭建本地知識庫問答AI機器人 LangChain-Chatchat:基于LangChain和ChatGLM2-6B構建本地離線私有化知識庫 在家庭私有云上部署體驗語言模型chatglm3-6b,打造私人助理 手把手教大家在本地運行ChatGLM3-6B大模型(一) 自從去年GPT模型火爆以來,降低了很多個人和企業(yè)進入人工智

    2024年02月20日
    瀏覽(29)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain實踐

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已經(jīng)正式發(fā)布,引入了如下新特性: ①. 基座模型升級,性能更強大,在中文C-Eval榜單中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 對學術研究完全開放,允許申請商用授權。 目前大多數(shù)部署方案采用的是

    2024年02月12日
    瀏覽(27)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain實踐 | 京東云技術團隊

    chatglm2-6b模型在9n-triton中部署并集成至langchain實踐 | 京東云技術團隊

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已經(jīng)正式發(fā)布,引入了如下新特性: ①. 基座模型升級,性能更強大,在中文C-Eval榜單中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 對學術研究完全開放,允許申請商用授權。 目前大多數(shù)部署方案采用的是

    2024年02月12日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包