国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【AI】清華開(kāi)源中英雙語(yǔ)對(duì)話模型ChatGLM2-6B本地安裝筆記

這篇具有很好參考價(jià)值的文章主要介紹了【AI】清華開(kāi)源中英雙語(yǔ)對(duì)話模型ChatGLM2-6B本地安裝筆記。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

清華開(kāi)源中英雙語(yǔ)對(duì)話模型ChatGLM2-6B本地安裝筆記

首先,直接上資源,網(wǎng)盤(pán)中是ChatGLM2-6B源碼及模型文件:

鏈接:https://pan.baidu.com/s/1DciporsVT-eSiVIAeU-YmQ
提取碼:cssa

官方的Readme已經(jīng)很詳盡了,再寫(xiě)點(diǎn)安裝博客有點(diǎn)畫(huà)蛇添足。本著記錄自己的工作內(nèi)容的初衷,還是寫(xiě)一寫(xiě)吧,畢竟輸出才是最好的學(xué)習(xí)。

本文記錄了本地安裝ChatGLM2-6B的過(guò)程,本地是用了一張RTX4070 12G的顯卡,對(duì)于這個(gè)模型有點(diǎn)勉強(qiáng),但是在實(shí)際運(yùn)行中發(fā)現(xiàn)Win11系統(tǒng)給了共享GPU存儲(chǔ),這讓我這個(gè)12G的顯卡也運(yùn)行了13G的模型,目前看是能正常運(yùn)行,沒(méi)有爆顯存的問(wèn)題。官方也提供了int4的模型,可以在6G顯存上運(yùn)行起來(lái),由于我這邊已經(jīng)運(yùn)行起來(lái)了,所以沒(méi)有在考慮使用int4模型。下圖是我模型加載之后的GPU占用情況,就很神奇。。。

【AI】清華開(kāi)源中英雙語(yǔ)對(duì)話模型ChatGLM2-6B本地安裝筆記,人工智能,ChatGLM2

1. Conda復(fù)制虛擬環(huán)境

conda creat -n new_env_name --copy old_env_name

創(chuàng)建ChatGLM運(yùn)行環(huán)境,因?yàn)镃hatGLM使用pytorch框架,所以使用Conda復(fù)制一個(gè)Pytorch的虛擬環(huán)境,以便在安裝所需依賴(lài)完成之后不會(huì)對(duì)其他環(huán)境依賴(lài)造成破壞。

2. 添加PIP鏡像源

由于安裝依賴(lài)需要使用pip,為加速訪問(wèn),所以配置PIP鏡像源

配置PIP鏡像源要切換到對(duì)應(yīng)的虛擬環(huán)境上,如conda activate chatglm2

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

另外,還有其他鏡像源可供使用

阿里云 https://mirrors.aliyun.com/pypi/simple/
豆瓣 http://pypi.douban.com/simple/
清華大學(xué) https://pypi.tuna.tsinghua.edu.cn/simple/
中國(guó)科學(xué)技術(shù)大學(xué) http://pypi.mirrors.ustc.edu.cn/simple/

Conda配置鏡像源的工作在之前的Pytorch安裝中已經(jīng)寫(xiě)過(guò)了,可以參考。

3. 下載代碼

  1. Github上克隆代碼
git clone https://github.com/lordum/ChatGLM2-6B.git

4. 下載模型

啟動(dòng)模型的過(guò)程中,程序會(huì)自動(dòng)去Huging Face官網(wǎng)下載模型bin文件,但是由于網(wǎng)絡(luò)的原因,很可能會(huì)下載失敗,官方提供了一個(gè)清華的下載地址(https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/),但是這個(gè)地址只有模型,很多配置文件會(huì)找不到,需要去Hugging Face官網(wǎng)下載(https://huggingface.co/THUDM/chatglm2-6b/tree/main);如果直接運(yùn)行可能會(huì)遇到下面的問(wèn)題1所列的問(wèn)題。我這邊將所有的文件打包,放在百度網(wǎng)盤(pán)上(鏈接:https://pan.baidu.com/s/1DciporsVT-eSiVIAeU-YmQ 提取碼:cssa ),需要的可以自取。

下載完之后將model目錄下面的模型及配置文件全部拷貝到代碼目錄下面,不需要新建文件夾之類(lèi)的,直接和原有代碼放在一塊就好了。

5.依賴(lài)安裝

首先是安裝requirement,requirement.txt中的依賴(lài)可以根據(jù)自己環(huán)境進(jìn)行調(diào)整,比如我這邊由于復(fù)制了pytorch的環(huán)境,可以將其中的pytorch行刪除。這里pip安裝也是用的國(guó)內(nèi)鏡像源,可以大幅提高安裝速度,前面已經(jīng)介紹了添加方式。

官方推薦了 transformers 庫(kù)版本推薦為 4.30.2,torch 推薦使用 2.0 以上的版本,以獲得最佳的推理性能。

pip install -r requirements.txt

6.應(yīng)用

官方文檔提供了多種應(yīng)用方法,我們一般選擇web界面運(yùn)行,官方代碼中提供了兩個(gè)web_demo,web_demo.py是一問(wèn)一答形式了,答案是統(tǒng)一給出的,web_demo2.py是流式回答,答案是流式傳輸?shù)?。需要注意的是,兩種方式都要安裝必要的依賴(lài);為了更貼近實(shí)用,我們選擇web_demo2.py來(lái)運(yùn)行。

@AdamBear 實(shí)現(xiàn)了基于 Streamlit 的網(wǎng)頁(yè)版 Demo web_demo2.py。使用時(shí)首先需要額外安裝以下依賴(lài):

pip install streamlit streamlit-chat

模型運(yùn)行默認(rèn)去Hugging Face上去拉取模型文件,如果使用本地的文件,需要修改一下模型加載語(yǔ)句:

【AI】清華開(kāi)源中英雙語(yǔ)對(duì)話模型ChatGLM2-6B本地安裝筆記,人工智能,ChatGLM2

將15、16行改成本地代碼路徑就可以加載了

然后通過(guò)以下命令運(yùn)行:

streamlit run web_demo2.py

經(jīng)測(cè)試,如果輸入的 prompt 較長(zhǎng)的話,使用基于 Streamlit 的網(wǎng)頁(yè)版 Demo 會(huì)更流暢。

【AI】清華開(kāi)源中英雙語(yǔ)對(duì)話模型ChatGLM2-6B本地安裝筆記,人工智能,ChatGLM2

【AI】清華開(kāi)源中英雙語(yǔ)對(duì)話模型ChatGLM2-6B本地安裝筆記,人工智能,ChatGLM2

安裝遇到的問(wèn)題

1. ValueError: Unrecognized configuration class <class ‘transformers_modules.chatglm-6b.co

問(wèn)題描述
在部署ChatGLM過(guò)程中,出現(xiàn)了如下bug信息。
ValueError: Unrecognized configuration class <class ‘transformers_modules.chatglm-6b.configuration_chatglm.ChatGLMConfig’> to build an AutoTokenizer.

問(wèn)題原因
我是通過(guò)清華云盤(pán)下載的模型參數(shù)(具體情況如下),里面缺失了很多重要的配置文件。

【AI】清華開(kāi)源中英雙語(yǔ)對(duì)話模型ChatGLM2-6B本地安裝筆記,人工智能,ChatGLM2

解決方案

可以通過(guò)Hagging Face官網(wǎng)下載完整的配置文件,然后將其放在與模型參數(shù)相同的位置。

https://huggingface.co/THUDM/chatglm2-6b/tree/main

【AI】清華開(kāi)源中英雙語(yǔ)對(duì)話模型ChatGLM2-6B本地安裝筆記,人工智能,ChatGLM2

參考文章:https://blog.csdn.net/weixin_40964597/article/details/131074884文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-602622.html

到了這里,關(guān)于【AI】清華開(kāi)源中英雙語(yǔ)對(duì)話模型ChatGLM2-6B本地安裝筆記的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 開(kāi)源雙語(yǔ)對(duì)話語(yǔ)言模型 ChatGLM-6B 本地私有化部署

    開(kāi)源雙語(yǔ)對(duì)話語(yǔ)言模型 ChatGLM-6B 本地私有化部署

    本文首發(fā)于:https://www.licorne.ink/2023/08/llm-chatglm-6b-local-deploy/ ChatGLM-6B 是一個(gè)開(kāi)源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶(hù)可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。 ChatGL

    2024年02月10日
    瀏覽(105)
  • 清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程

    清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程

    python版本要求:3.8以上 沒(méi)有安裝python的沒(méi)有關(guān)系,我們?cè)谙旅姘惭banaconda中會(huì)自動(dòng)生成python,有了python的建議刪除,通過(guò)anaconda安裝python以便于后面創(chuàng)建虛擬環(huán)境。 windows系統(tǒng):Windows 10 以上,推薦N卡(NVIDIA顯卡20系列以上) 注意:處理器為AMD容易報(bào)錯(cuò),intel的不容易報(bào)錯(cuò),配

    2024年02月16日
    瀏覽(37)
  • 【AI開(kāi)源大模型】GLM-130B:開(kāi)放的中英雙語(yǔ)預(yù)訓(xùn)練模型
  • 中英雙語(yǔ)大模型ChatGLM論文閱讀筆記

    中英雙語(yǔ)大模型ChatGLM論文閱讀筆記

    論文傳送門(mén): [1] GLM: General Language Model Pretraining with Autoregressive Blank Infilling [2] Glm-130b: An open bilingual pre-trained model Github鏈接: THUDM/ChatGLM-6B GLM-130B 和 GPT-3 175B(davinci) 相比,參數(shù)量減少,但性能提升了。 INT4 quantization without post training INT4量化是一種將模型的權(quán)重和激活從使用

    2024年02月02日
    瀏覽(26)
  • AI模型部署記錄(一)-ChatGLM:清華開(kāi)源本地部署(2023/05/06更新)

    文章首發(fā)及后續(xù)更新:https://mwhls.top/4500.html,無(wú)圖/無(wú)目錄/格式錯(cuò)誤/更多相關(guān)請(qǐng)至首發(fā)頁(yè)查看。 新的更新內(nèi)容請(qǐng)到mwhls.top查看。 歡迎提出任何疑問(wèn)及批評(píng),非常感謝! 服務(wù)部署匯總 本來(lái)這篇是為了打比賽寫(xiě)的,寫(xiě)著寫(xiě)著發(fā)現(xiàn)兩個(gè)問(wèn)題,AI部署連續(xù)幾篇,等我比賽打完再發(fā)模

    2024年02月03日
    瀏覽(60)
  • AI 智能對(duì)話 - 基于 ChatGLM2-6B 訓(xùn)練對(duì)話知識(shí)庫(kù)

    AI 智能對(duì)話 - 基于 ChatGLM2-6B 訓(xùn)練對(duì)話知識(shí)庫(kù)

    前情提要 怎么將 AI 應(yīng)用到工作中呢?比如讓 AI 幫忙寫(xiě)代碼,自己通過(guò)工程上的思維將代碼整合排版,我挺煩什么代碼邏輯嚴(yán)謹(jǐn)性的問(wèn)題,但是我又不得不承認(rèn)這樣的好處,我們要開(kāi)始將角色轉(zhuǎn)換出來(lái),不應(yīng)該是一個(gè)工具人,而成為決策者,這是從 AI 爆發(fā)中看到的發(fā)展趨勢(shì),

    2024年02月12日
    瀏覽(23)
  • Python:清華ChatGLM-6B中文對(duì)話模型部署

    Python:清華ChatGLM-6B中文對(duì)話模型部署

    1、簡(jiǎn)介 ChatGLM-6B 是一個(gè)開(kāi)源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶(hù)可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技術(shù),針對(duì)中文問(wèn)答和對(duì)話

    2024年02月08日
    瀏覽(26)
  • 人工智能_CPU安裝運(yùn)行ChatGLM大模型_安裝清華開(kāi)源人工智能AI大模型ChatGlm-6B_004---人工智能工作筆記0099

    人工智能_CPU安裝運(yùn)行ChatGLM大模型_安裝清華開(kāi)源人工智能AI大模型ChatGlm-6B_004---人工智能工作筆記0099

    上一節(jié)003節(jié)我們安裝到最后,本來(lái)大模型都可以回答問(wèn)題了,結(jié)果, 5分鐘后給出提示,需要GPU,我去..繼續(xù)看官網(wǎng),如何配置CPU運(yùn)行 ?沒(méi)辦法繼續(xù)看: 這里是官網(wǎng)可以看到? 需要gcc的版本是11.3.0,這里我們先沒(méi)有去安裝,直接試試再說(shuō) yum install epel-release yum install gcc-11.3.0 安裝的話執(zhí)行這

    2024年02月21日
    瀏覽(30)
  • 離線生成雙語(yǔ)字幕,一鍵生成中英雙語(yǔ)字幕,基于AI大模型,ModelScope

    離線生成雙語(yǔ)字幕,一鍵生成中英雙語(yǔ)字幕,基于AI大模型,ModelScope

    離線生成雙語(yǔ)字幕整合包,一鍵生成中英雙語(yǔ)字幕,基于AI大模型 制作雙語(yǔ)字幕的方案網(wǎng)上有很多,林林總總,不一而足。制作雙語(yǔ)字幕的原理也極其簡(jiǎn)單,無(wú)非就是人聲背景音分離、語(yǔ)音轉(zhuǎn)文字、文字翻譯,最后就是字幕文件的合并,但美中不足之處這些環(huán)節(jié)中需要接口api的

    2024年02月21日
    瀏覽(37)
  • 最強(qiáng)開(kāi)源中英雙語(yǔ)大模型發(fā)布,340億參數(shù)超越Llama2-70B !

    最強(qiáng)開(kāi)源中英雙語(yǔ)大模型發(fā)布,340億參數(shù)超越Llama2-70B !

    ? ? Aquila2模型全系開(kāi)源地址: https://github.com/FlagAI-Open/Aquila2 https://model.baai.ac.cn/ https://huggingface.co/BAAI Aquila2-34B在代碼生成、考試、理解、推理、語(yǔ)言四個(gè)維度的22個(gè)評(píng)測(cè)基準(zhǔn)上,霸占了多個(gè)榜單TOP 1。 ?相較于大模型榜單分?jǐn)?shù),業(yè)內(nèi)更看重對(duì)推理、泛化等重要模型實(shí)際能力的

    2024年01月24日
    瀏覽(38)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包