国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

ChatGLM2-6B下載與部署

這篇具有很好參考價值的文章主要介紹了ChatGLM2-6B下載與部署。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

0 寫在前面

我們首先來看一下ChatGLM2-6B模型的requirements:

protobuf
transformers==4.30.2
cpm_kernels
torch>=2.0
gradio
mdtex2html
sentencepiece
accelerate
sse-starlette
streamlit>=1.24.0

可以看到,要求torch>=2.0,這就產(chǎn)生了一個問題:torchcuda版本的匹配問題。本地機器中CUDA=10.0,于是在費了半天時間配置好ChatGLM2-6B所需環(huán)境,從githubhuggingface下載好了ChatGLM2-6B模型,但是在run的過程中報錯Torch not compiled with CUDA enabled,于是不得不卸載并重新安裝CUDA。因此提醒各位看官,在配置前,請一定檢查torch和cuda版本是否匹配**。torch2.0所需的版本為cuda 11.x,其中cuda 11.7cuda 11.8都是可以的。
所以我們先從CUDA卸載與安裝說起,如果不存在cuda版本匹配問題,可以略過此步。

1 CUDA卸載與安裝

1.1 cuda版本查看

查看本機所支持的最高版本:cmd->nvidia-smi,其中紅色框中的是本機支持的最高版本的cuda
ChatGLM2-6B下載與部署,python,語言模型
查看本機當前版本:cmd->nvcc --version,可以看到,當前版本為cuda_11.8(這是升級更新以后的結(jié)果)
ChatGLM2-6B下載與部署,python,語言模型

1.2 cuda卸載

用windows的控制面板進行卸載,搜索cuda(右上角),把和cuda相關(guān)的都卸載掉,注意只卸載cuda相關(guān)程序,NVIDIA相關(guān)的驅(qū)動等,如果拿不準,建議不要動,維持原狀。
ChatGLM2-6B下載與部署,python,語言模型

1.3 cuda安裝:

cuda官網(wǎng)下載地址:https://developer.nvidia.com/cuda-downloads
這里我選擇11->exe(local),如果想要查看下載所有歷史版本,可以點擊Archive of Previous CUDA Releases
ChatGLM2-6B下載與部署,python,語言模型
以管理員身份運行cuda_11.8.0_522.06_windows.exe,過程中可以選擇自定義安裝,由于我只卸載了cuda,因此也只安裝cuda,其他的幾個選項勾選掉了。安裝路徑為C:\Program Files\NVIDIA GPU Computing Toolkit
ChatGLM2-6B下載與部署,python,語言模型
安裝過程大約10分鐘左右,中途出現(xiàn)了以下問題,原因是安裝過程中需要在系統(tǒng)環(huán)境變量path變量中寫入以下路徑,但由于我的path變量超限,寫不進去,于是安裝程序提示讓在安裝完成后手動在path變量中寫入這兩個路徑。
由此引發(fā)另一個問題:path變量超限問題,關(guān)于這個問題,網(wǎng)上有說修改注冊表的,有說直接在注冊表中的path中寫入路徑的,最后采用的是這個方法,親測有效。
ChatGLM2-6B下載與部署,python,語言模型
環(huán)境變量問題解決掉后,重啟電腦,打開cmd測試一下,如果cmd->nvidia-smicmd->nvidia-smi可用并且顯示相關(guān)信息,說明cuda升級更新成功!

2 ChatGLM2-6B下載

B站有一個官網(wǎng)的教程可參考:視頻教程
github上把項目拖下來,然后在項目所在路徑下面,創(chuàng)建虛擬環(huán)境venv,在該環(huán)境下安裝項目所需的依賴requirements.txt,這兩步怎么做,可以參考我以前的教程Anaconda3安裝配置/創(chuàng)建刪除虛擬環(huán)境/在特定虛擬環(huán)境下安裝庫,以及這里ChatGLM2-6B下載與部署,python,語言模型
值得注意的是:torch的安裝,建議用官網(wǎng)給的命令:https://pytorch.org/get-started/pytorch-2.0/#faqs,以避免不必要的麻煩。
即:
pip3 install numpy --pre torch torchvision torchaudio --force-reinstall --index-url https://download.pytorch.org/whl/nightly/cu118
文件有2.7GB大小,下載略慢,如下圖。
ChatGLM2-6B下載與部署,python,語言模型
項目路徑D:\Code\ChatGLM2-6B,文件結(jié)構(gòu)如下,其中THUDM文件夾和venv文件夾是自己創(chuàng)建的,THUMD用于存放從預訓練模型。
ChatGLM2-6B下載與部署,python,語言模型

3 從Huggingface下載預訓練模型

下載預訓練模型,有3種方式:

3.1. 方式1:代碼直接調(diào)用

方式1:代碼直接調(diào)用,前提是可以(科學上網(wǎng))訪問Huggingface
ChatGLM2-6B下載與部署,python,語言模型

3.2. 方式2:手動從Huggingface上下載

Huggingface上的項目地址:https://huggingface.co/THUDM/chatglm2-6b
ChatGLM2-6B下載與部署,python,語言模型
Huggingface上面,項目的完整目錄如圖
ChatGLM2-6B下載與部署,python,語言模型

3.3. 方式3:從清華云盤下載

從清華云盤將所有下面的文件下載下來,放進D:\Code\ChatGLM2-6B\THUDM\chatglm2-6b這個目錄,THUDM\chatglm2-6b這個目錄是自己創(chuàng)建的。
ChatGLM2-6B下載與部署,python,語言模型
這還不夠,需要從Huggingface項目地址中,將其余的一些配置文件下載補全,一起放進D:\Code\ChatGLM2-6B\THUDM\chatglm2-6b這個目錄。(為什么一部分從清華云盤下,一部分從huggingface下??因為內(nèi)網(wǎng)從huggingface下載的速度非常非常慢,所以幾個大的1G以上的文件從清華云盤下載了,但清華云盤上沒有給所需的配置文件如config.json,導致模型跑不起來,所以一些小的幾個KB的配置文件從huggingface下載了,嗯…就這么回事)。

3.4 檢查目錄結(jié)構(gòu)

檢查一下自己的存放預訓練模型的文件夾結(jié)構(gòu),如下:
ChatGLM2-6B下載與部署,python,語言模型

4 運行與測試ChatGLM2-6B

在pycharm中打開該項目,寫了一個很簡單的測試腳本Test.py,向它提問晚上睡不著該咋辦,運行項目后,ChatGLM2-6B給出答案,在這個過程中,加載模型的checkpoints需要約半分鐘時間,模型推理需要約半分鐘時間才能給出答案(臺式機,一張NVIDIA GeForce RTX 2080Ti顯卡,16GB內(nèi)存)
ChatGLM2-6B下載與部署,python,語言模型
ChatGLM2-6B下載與部署,python,語言模型
再測試一個,向它提問:飛機是怎么裝配的,回答如下
ChatGLM2-6B下載與部署,python,語言模型

Chatglm2-6B的微調(diào)

5. 寫在后面

安裝過程中的bug總結(jié)如下:

  1. cannot import name 'deprecated' from 'typing_extensions'
  2. cannot import name 'Doc' from 'typing_extensions'
    以上兩個bug是由于ChatGLM2-6B項目需要typing_extensions>4.8.0,按要求安裝即可:pip install typing_extensions==4.8
    在微調(diào)過程中報錯
  3. AttributeError: 'ChatGLMForConditionalGeneration' object has no attribute 'enable_input_require_grads',解決方案,升級transformers
pip install transformers==4.27.1

-----------------------------------------------------------------The End!---------------------------------------------------------------------------------文章來源地址http://www.zghlxwxcb.cn/news/detail-737063.html

到了這里,關(guān)于ChatGLM2-6B下載與部署的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務器費用

相關(guān)文章

  • ChatGLM2-6B 大語言模型本地搭建

    ChatGLM2-6B 大語言模型本地搭建

    ChatGLM2-6B 是清華 NLP 團隊于不久前發(fā)布的中英雙語對話模型,它具備了強大的問答和對話功能。擁有最大32K上下文,并且在授權(quán)后可免費商用! ChatGLM2-6B的6B代表了訓練參數(shù)量為60億,同時運用了模型量化技術(shù),意味著用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下

    2024年01月21日
    瀏覽(47)
  • 以大語言模型ChatGLM2-6B為后臺,打造個人語音交互機器人Demo

    以大語言模型ChatGLM2-6B為后臺,打造個人語音交互機器人Demo

    隨著以ChatGLM2-6B為代表的開源大型語言模型的興起,人工智能革命正席卷全球…… ChatGLM2-6B這一代表性的開源大型模型,以其易于部署、適度的參數(shù)量和強大的中文處理能力,為個人用戶提供了在個人顯卡上部署大型模型的便捷途徑。 然而,在大型語言模型領(lǐng)域,人機交互仍

    2024年02月05日
    瀏覽(19)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain實踐

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已經(jīng)正式發(fā)布,引入了如下新特性: ①. 基座模型升級,性能更強大,在中文C-Eval榜單中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 對學術(shù)研究完全開放,允許申請商用授權(quán)。 目前大多數(shù)部署方案采用的是

    2024年02月12日
    瀏覽(27)
  • ChatGLM2-6B_ An Open Bilingual Chat LLM _ 開源雙語對話語言模型

    更強大的性能 :基于 ChatGLM 初代模型的開發(fā)經(jīng)驗,我們?nèi)嫔壛?ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 [GLM]的混合目標函數(shù),經(jīng)過了 1.4T 中英標識符的預訓練與人類偏好對齊訓練,評測結(jié)果顯示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BB

    2024年04月14日
    瀏覽(26)
  • 清華大學開源ChatGLM2-6B開源模型在anaconda下的虛擬環(huán)境詳細部署及安裝教程

    清華大學開源ChatGLM2-6B開源模型在anaconda下的虛擬環(huán)境詳細部署及安裝教程

    python版本要求:3.8以上 沒有安裝python的沒有關(guān)系,我們在下面安裝anaconda中會自動生成python,有了python的建議刪除,通過anaconda安裝python以便于后面創(chuàng)建虛擬環(huán)境。 windows系統(tǒng):Windows 10 以上,推薦N卡(NVIDIA顯卡20系列以上) 注意:處理器為AMD容易報錯,intel的不容易報錯,配

    2024年02月16日
    瀏覽(36)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain實踐 | 京東云技術(shù)團隊

    chatglm2-6b模型在9n-triton中部署并集成至langchain實踐 | 京東云技術(shù)團隊

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已經(jīng)正式發(fā)布,引入了如下新特性: ①. 基座模型升級,性能更強大,在中文C-Eval榜單中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 對學術(shù)研究完全開放,允許申請商用授權(quán)。 目前大多數(shù)部署方案采用的是

    2024年02月12日
    瀏覽(25)
  • ChatGLM2-6B 部署

    ChatGLM2-6B 部署

    這是ChatGLM2-6B 部署的閱讀筆記,主要介紹了ChatGLM2-6B模型的部署和一些原理的簡單解釋。 它是單卡開源的對話模型。 充分的中英雙語預訓練 較低的部署門檻 FP16半精度下,需要至少13G的顯存進行推理,甚至可以進一步降低到10G(INT8)和6G(INT4) 更長的序列長度 ChatGLM-6B 序列長度達

    2024年02月09日
    瀏覽(27)
  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 開源中英雙語對話模型

    【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 開源中英雙語對話模型

    項目地址 chatglm2-6b 下載模型 創(chuàng)建測試項目 創(chuàng)建虛擬環(huán)境安裝依賴 完整的venv環(huán)境 main.py 執(zhí)行 python進程cpu使用率100.3%持續(xù)了很長時間,沒有啟用多線程?

    2024年01月20日
    瀏覽(25)
  • ChatGLM2-6B、ChatGLM-6B 模型介紹及訓練自己數(shù)據(jù)集實戰(zhàn)

    ChatGLM2-6B、ChatGLM-6B 模型介紹及訓練自己數(shù)據(jù)集實戰(zhàn)

    介紹 ChatGLM-6B是開源的文本生成式對話模型,基于General Language Model(GLM)框架,具有62億參數(shù),結(jié)合模型蒸餾技術(shù),實測在2080ti顯卡訓練中上(INT4)顯存占用 6G 左右, 優(yōu)點 :1.較低的部署門檻: FP16 半精度下,ChatGLM-6B 需要至少 13GB 的顯存進行推理,結(jié)合模型量化技術(shù),一需求可以進一步

    2024年02月12日
    瀏覽(24)
  • 阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM

    阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM

    更新系統(tǒng) 安裝git 克隆 ChatGLM2-6B 源碼 克隆 chatglm2-6b 模型 安裝 ChatGLM2-6B 依賴 修改模型的路徑 修改成 啟動服務 啟動成功后 克隆 langchain-ChatGLM 源碼 git clone https://github.com/imClumsyPanda/langchain-ChatGLM.git 克隆模型 安裝 langchain-ChatGLM 依賴 修改配置 修改一 修改成 修改二 修改成 修改

    2024年02月15日
    瀏覽(33)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包