国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM

這篇具有很好參考價(jià)值的文章主要介紹了阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

1.ChatGLM2-6B 部署

  • 更新系統(tǒng)

apt-get?update
  • 安裝git

apt-get?install?git-lfs
git?init
git?lfs?install
  • 克隆 ChatGLM2-6B 源碼

git?clone?https://github.com/THUDM/ChatGLM2-6B.git
  • 克隆 chatglm2-6b 模型

#進(jìn)入目錄
cd?ChatGLM2-6B
#創(chuàng)建目錄
mkdir?model
#進(jìn)入目錄
cd?model
#克隆
git?clone?https://huggingface.co/THUDM/chatglm2-6b
  • 安裝 ChatGLM2-6B 依賴

cd?../
pip?install?-r?requirements.txt
  • 修改模型的路徑

tokenizer?=?AutoTokenizer.from_pretrained("THUDM/chatglm2-6b",?trust_remote_code=True)
model?=?AutoModel.from_pretrained("THUDM/chatglm2-6b",?trust_remote_code=True).cuda()

修改成

tokenizer?=?AutoTokenizer.from_pretrained("model/chatglm2-6b",?trust_remote_code=True)
model?=?AutoModel.from_pretrained("model/chatglm2-6b",?trust_remote_code=True).cuda()
阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM,langchain
  • 啟動(dòng)服務(wù)

python?web_demo.py

啟動(dòng)成功后

阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM,langchain

2.langchain+chatGLM 部署

  • 克隆 langchain-ChatGLM 源碼

git clone https://github.com/imClumsyPanda/langchain-ChatGLM.git

  • 克隆模型

#進(jìn)入目錄
cd?langchain-ChatGLM
#創(chuàng)建目錄
mkdir?text2vec-large-chinese
#進(jìn)入目錄
cd?text2vec-large-chinese
#克隆
git?clone?https://huggingface.co/GanymedeNil/text2vec-large-chinese
  • 安裝 langchain-ChatGLM 依賴

cd?../
pip?install?-r?requirements.txt
  • 修改配置

修改一

"text2vec":?"GanymedeNil/text2vec-large-chinese"

修改成

"text2vec":?"text2vec-large-chinese/text2vec-large-chinese"
阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM,langchain

修改二

"pretrained_model_name":?"THUDM/chatglm2-6b"

修改成

"pretrained_model_name":?"../ChatGLM2-6B/model/chatglm2-6b"
阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM,langchain

修改三

#?LLM?名稱
LLM_MODEL?=?"chatglm-6b"
#?量化加載8bit?模型
LOAD_IN_8BIT?=?False

修改成

#?LLM?名稱
LLM_MODEL?=?"chatglm2-6b"
#?量化加載8bit?模型
LOAD_IN_8BIT?=?True
阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM,langchain
  • 安裝依賴 (啟動(dòng)langchain+chatGLM時(shí),報(bào)錯(cuò)提示要安裝的依賴)

pip?install?accelerate
pip?install?bitsandbytes
  • 啟動(dòng)服務(wù)

python?webui.py

啟動(dòng)成功后

阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM,langchain

阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM,langchain文章來源地址http://www.zghlxwxcb.cn/news/detail-607530.html

到了這里,關(guān)于阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • ChatGLM2-6B 部署

    ChatGLM2-6B 部署

    這是ChatGLM2-6B 部署的閱讀筆記,主要介紹了ChatGLM2-6B模型的部署和一些原理的簡(jiǎn)單解釋。 它是單卡開源的對(duì)話模型。 充分的中英雙語(yǔ)預(yù)訓(xùn)練 較低的部署門檻 FP16半精度下,需要至少13G的顯存進(jìn)行推理,甚至可以進(jìn)一步降低到10G(INT8)和6G(INT4) 更長(zhǎng)的序列長(zhǎng)度 ChatGLM-6B 序列長(zhǎng)度達(dá)

    2024年02月09日
    瀏覽(27)
  • 開源大模型ChatGLM2-6B 2. 跟著LangChain參考文檔搭建LLM+知識(shí)庫(kù)問答系統(tǒng)

    開源大模型ChatGLM2-6B 2. 跟著LangChain參考文檔搭建LLM+知識(shí)庫(kù)問答系統(tǒng)

    租用了1臺(tái)GPU服務(wù)器,系統(tǒng) ubuntu20,Tesla V100-16GB (GPU服務(wù)器已經(jīng)關(guān)機(jī)結(jié)束租賃了) SSH地址:* 端口:17520 SSH賬戶:root 密碼:Jaere7pa 內(nèi)網(wǎng): 3389 , 外網(wǎng):17518 VNC地址:* 端口:17519 VNC用戶名:root 密碼:Jaere7pa 硬件需求,ChatGLM-6B和ChatGLM2-6B相當(dāng)。 量化等級(jí)?? ?最低 GPU 顯存 F

    2024年02月03日
    瀏覽(32)
  • ChatGLM2-6B下載與部署

    ChatGLM2-6B下載與部署

    我們首先來看一下 ChatGLM2-6B 模型的 requirements : 可以看到,要求 torch=2.0 ,這就產(chǎn)生了一個(gè)問題: torch 與 cuda 版本的匹配問題。本地機(jī)器中 CUDA=10.0 ,于是在費(fèi)了半天時(shí)間配置好 ChatGLM2-6B 所需環(huán)境,從 github 和 huggingface 下載好了 ChatGLM2-6B 模型,但是在 run 的過程中報(bào)錯(cuò) Torch

    2024年02月06日
    瀏覽(28)
  • 使用Triton部署chatglm2-6b模型

    NVIDIA Triton Inference Server是一個(gè)針對(duì)CPU和GPU進(jìn)行優(yōu)化的云端和推理的解決方案。 支持的模型類型包括TensorRT、TensorFlow、PyTorch(meta-llama/Llama-2-7b)、Python(chatglm)、ONNX Runtime和OpenVino。 NVIDIA Triton Server是一個(gè)高性能的推斷服務(wù)器,具有以下特點(diǎn): 1. 高性能:Triton Server為使用GPU進(jìn)行推

    2024年02月08日
    瀏覽(20)
  • AIGC - ChatGLM大模型:ChatGLM2-6B模型推理部署

    AIGC - ChatGLM大模型:ChatGLM2-6B模型推理部署

    如果你要問我為什么直接部署ChatGLM2的模型? 因?yàn)楫?dāng)我在8月份在上海召開的全球人工智能大會(huì)上了解到清華-智譜發(fā)布的ChatGLM模型時(shí),它已經(jīng)發(fā)布了新的版本ChatGLM2,并且推理的效果提升了不少,那么本著只要最好的原則,我就直接上手先玩新版本了。 作為AIGC方面的小白來說

    2024年02月06日
    瀏覽(23)
  • ChatGLM2-6B在windows下的部署

    ChatGLM2-6B在windows下的部署

    1、Windows 10 專業(yè)版, 64位,版本號(hào):22H2,內(nèi)存:32GB 2、已安裝CUDA11.3 3、已安裝Anaconda3 64bit版本 4、有顯卡NVIDIA GeForce RTX 3060 Laptop GPU 1、進(jìn)入Anaconda Powershell Prompt 2、創(chuàng)建保存chatglm2-6b的huggingface模型的公共目錄。之所以創(chuàng)建一個(gè)公共目錄,是因?yàn)檫@個(gè)模型文件是可以被各種應(yīng)用

    2024年02月13日
    瀏覽(36)
  • Ubuntu部署ChatGLM2-6B踩坑記錄

    Ubuntu部署ChatGLM2-6B踩坑記錄

    目錄 一、環(huán)境配置 1、安裝anaconda或者miniconda進(jìn)行環(huán)境的管理 2、安裝CUDA 3、環(huán)境安裝 二、配置加載模型 1、建立THUDM文件夾 三、遇到的問題 1、pip install -r requirements.txt ?2、運(yùn)行python web_demo.py遇到的錯(cuò)誤——TypeError: Descriptors cannot not be created directly. ?3、運(yùn)行python web_demo.py遇到

    2024年01月25日
    瀏覽(23)
  • 【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型)

    【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型)

    ChatGLM2-6B是一個(gè)開源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于General Language Model (GLM)架構(gòu)。 ChatGLM2-6B具備的能力: 自我認(rèn)知:“介紹一下你的優(yōu)點(diǎn)” 提綱寫作:“幫我寫一個(gè)介紹ChatGLM的博客提綱” 文案寫作:“寫10條熱評(píng)文案” 信息抽?。骸畯纳鲜鲂畔⒅谐槿∪?、時(shí)間、事件

    2024年02月14日
    瀏覽(22)
  • 從零開始學(xué)AI:ChatGLM2-6B 部署測(cè)試

    ChatGLM2-6B 是開源中英雙語(yǔ)對(duì)話模型 ChatGLM-6B 的第二代版本,在保留了初代模型對(duì)話流暢、部署門檻較低等眾多優(yōu)秀特性的基礎(chǔ)之上,ChatGLM2-6B 引入了如下新特性: 更強(qiáng)大的性能:基于 ChatGLM 初代模型的開發(fā)經(jīng)驗(yàn),我們?nèi)嫔?jí)了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 GLM 的混

    2024年04月28日
    瀏覽(22)
  • ChatGLM2-6B! 我跑通啦!本地部署+微調(diào)(windows系統(tǒng))

    ChatGLM2-6B! 我跑通啦!本地部署+微調(diào)(windows系統(tǒng))

    記錄一下此時(shí)此刻,2023年7月8日22點(diǎn)04,從ChatGLM2-6B在7月4日開放了ptuning到此時(shí)此刻,ChatGLM2-6B的微調(diào)終于被哥們跑通了! 從 本地部署ChatGLM2-6B 到 本地進(jìn)行P-tuning微調(diào) ,再到最后的 模型檢測(cè) ,哥們?nèi)芡耍?這里非常感謝ChatGLM2-6B|開源本地化語(yǔ)言模型這篇博客!因?yàn)槲也贾?/p>

    2024年02月16日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包