国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

本地部署ChatGLM-6B模型(使用JittorLLMs大模型推理庫(kù))

這篇具有很好參考價(jià)值的文章主要介紹了本地部署ChatGLM-6B模型(使用JittorLLMs大模型推理庫(kù))。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

簡(jiǎn)介

網(wǎng)上沖浪時(shí)發(fā)現(xiàn)的這兩個(gè)國(guó)產(chǎn)模型,重點(diǎn)是對(duì)硬件的要求并不高,有2GB內(nèi)存就可以跑,覺(jué)得有趣就弄來(lái)玩了下。

https://github.com/Jittor/JittorLLMs
https://github.com/THUDM/ChatGLM-6B

簡(jiǎn)單介紹下用到的倉(cāng)庫(kù)

ChatGLM-6B

ChatGLM-6B 是一個(gè)開(kāi)源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技術(shù),針對(duì)中文問(wèn)答和對(duì)話進(jìn)行了優(yōu)化。經(jīng)過(guò)約 1T 標(biāo)識(shí)符的中英雙語(yǔ)訓(xùn)練,輔以監(jiān)督微調(diào)、反饋?zhàn)灾?、人類反饋?qiáng)化學(xué)習(xí)等技術(shù)的加持,62 億參數(shù)的 ChatGLM-6B 已經(jīng)能生成相當(dāng)符合人類偏好的回答。

JittorLLMS

JittorLLMS是基于ChatGLM-6B開(kāi)發(fā)的開(kāi)源項(xiàng)目。
成本低:相比同類框架,本庫(kù)可大幅降低硬件配置要求(減少80%),沒(méi)有顯卡,2G內(nèi)存就能跑大模型,人人皆可在普通機(jī)器上,實(shí)現(xiàn)大模型本地部署;是目前已知的部署成本最低的大模型庫(kù)。

效果

系統(tǒng):win10
環(huán)境:python 3.9.10
cpu:i7-8750H
顯卡:GTX-1050Ti
內(nèi)存:16GB 2666 MHz

如下圖所示,可以發(fā)現(xiàn)就憑我這5年前的筆電都可以運(yùn)行起來(lái),還是挺不錯(cuò)的,就是回答的效果不太好 一個(gè)回答需要好幾分鐘才能說(shuō)完。
本地部署ChatGLM-6B模型(使用JittorLLMs大模型推理庫(kù))
本地部署ChatGLM-6B模型(使用JittorLLMs大模型推理庫(kù))

開(kāi)始安裝

安裝Python

這里不做贅述,版本要求至少3.8。版本不夠的小伙伴需要做下版本的升級(jí)

下載安裝依賴

可以通過(guò)環(huán)境變量JITTOR_HOME指定緩存存放路徑,默認(rèn)存放在C盤的user下
本地部署ChatGLM-6B模型(使用JittorLLMs大模型推理庫(kù))

# 國(guó)內(nèi)使用 gitlink clone
git clone https://gitlink.org.cn/jittor/JittorLLMs.git --depth 1
# github: git clone https://github.com/Jittor/JittorLLMs.git --depth 1
cd JittorLLMs
# -i 指定用jittor的源, -I 強(qiáng)制重裝Jittor版torch
pip install -r requirements.txt -i https://pypi.jittor.org/simple -I

如果出現(xiàn)找不到j(luò)ittor版本的錯(cuò)誤,請(qǐng)更新版本:

pip install jittor -U -i https://pypi.org/simple

安裝中若有其他錯(cuò)誤,安裝python對(duì)應(yīng)的提示信息完成就可以。
如果遇到 transformers 下載失敗,嘗試使用VPN 將節(jié)點(diǎn)放到新加坡 再重新下載,我之前的節(jié)點(diǎn)在香港 導(dǎo)致一直下載失敗。

部署啟動(dòng)

部署只需一行命令即可:

python cli_demo.py [chatglm|pangualpha|llama|chatrwkv]

運(yùn)行上面的命令會(huì)下載模型文件到本地根目錄(C盤)
JittorLLMs 支持4個(gè)語(yǔ)言模型的運(yùn)行

等待模型下載完成后,沒(méi)有出現(xiàn)紅色字體報(bào)錯(cuò),且出現(xiàn)了生成進(jìn)度 并出現(xiàn)了用戶輸入: 這幾個(gè)字,那么恭喜 你的模型運(yùn)行成功,可以愉快的訓(xùn)練了

若輸入指令后 沒(méi)幾秒模型崩了,就是出現(xiàn)如下那種錯(cuò)誤了 或內(nèi)存警告之類的本地部署ChatGLM-6B模型(使用JittorLLMs大模型推理庫(kù))

原因是JittorLLM需要使用的顯存和內(nèi)存超過(guò)了我們電腦配置的極限,設(shè)置下JittorLLM的環(huán)境變量,節(jié)省內(nèi)存:

export JT_SAVE_MEM=1
# 限制cpu最多使用16G   就是內(nèi)存
export cpu_mem_limit=16000000000
# 限制device內(nèi)存(如gpu、tpu等)最多使用8G
export device_mem_limit=8000000000
# windows 用戶,請(qǐng)使用powershell
# $env:JT_SAVE_MEM="1"
# $env:cpu_mem_limit="16000000000"
# $env:device_mem_limit="8000000000"

內(nèi)存設(shè)置小技巧
為了更好的發(fā)揮性能并使JittorLLM不被回收,我們?cè)O(shè)置內(nèi)存與GPU顯存可用量 可用按如下的公式來(lái):
內(nèi)存:總內(nèi)存-當(dāng)前已用內(nèi)存-500MB預(yù)留的內(nèi)存
GPU顯存:總顯存-當(dāng)前已用顯存-500MB預(yù)留顯存
以上并不一定是最優(yōu),至少可用保證運(yùn)行后被系統(tǒng)給回收掉

用戶可以自由設(shè)定cpu和設(shè)備內(nèi)存的使用量,如果不希望對(duì)內(nèi)存進(jìn)行限制,可以設(shè)置為-1

# 限制cpu最多使用16G
export cpu_mem_limit=-1
# 限制device內(nèi)存(如gpu、tpu等)最多使用8G
export device_mem_limit=-1
# windows 用戶,請(qǐng)使用powershell
# $env:JT_SAVE_MEM="1"
# $env:cpu_mem_limit="-1"
# $env:device_mem_limit="-1"

JittorLLM 文檔已經(jīng)寫的很清楚了,可以在倉(cāng)庫(kù)看到更多的操作

簡(jiǎn)單記錄,回憶不迷路文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-427986.html

到了這里,關(guān)于本地部署ChatGLM-6B模型(使用JittorLLMs大模型推理庫(kù))的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 開(kāi)源雙語(yǔ)對(duì)話語(yǔ)言模型 ChatGLM-6B 本地私有化部署

    開(kāi)源雙語(yǔ)對(duì)話語(yǔ)言模型 ChatGLM-6B 本地私有化部署

    本文首發(fā)于:https://www.licorne.ink/2023/08/llm-chatglm-6b-local-deploy/ ChatGLM-6B 是一個(gè)開(kāi)源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。 ChatGL

    2024年02月10日
    瀏覽(105)
  • 模型訓(xùn)練系列:1、用清華ChatGLM-6B模型部署自己的本地AI助手

    模型訓(xùn)練系列:1、用清華ChatGLM-6B模型部署自己的本地AI助手

    最近清華大學(xué)開(kāi)源的ChatGLM-6B語(yǔ)言模型在國(guó)際上大出風(fēng)頭,僅僅62億參數(shù)的小模型,能力卻很強(qiáng)。很期待他們后續(xù)1300億參數(shù)模型130B的發(fā)布。 為什么一些能力較弱的小模型,這么受追捧?因?yàn)镃hatGPT、GPT-4雖好,畢竟被國(guó)外封鎖,而且還要付費(fèi),更重要的是,LLM要在各行業(yè)提高生

    2024年02月11日
    瀏覽(29)
  • LLMs之ChatGLM2:ChatGLM2-6B本地部署之單機(jī)推理(API/CLI/GUI)、低成本部署(GPU量化部署/CPU及其量化部署/Mac部署/多卡部署)、有限資源下高效微調(diào)(全參/P-t

    LLMs之ChatGLM2:ChatGLM2-6B本地部署之單機(jī)推理(API/CLI/GUI)、低成本部署(GPU量化部署/CPU及其量化部署/Mac部署/多卡部署)、有限資源下高效微調(diào)(全參/P-tuning v2)、模型評(píng)估和推理之圖文教程之詳細(xì)攻略 目錄 一、配置基礎(chǔ)環(huán)境及其注意事項(xiàng) 第一步、檢測(cè)軟硬件環(huán)境

    2024年02月07日
    瀏覽(29)
  • ChatGLM-6B的windows本地部署使用

    ChatGLM-6B的windows本地部署使用

    ChartGPT最近特別火,但是收費(fèi),而且國(guó)內(nèi)訪問(wèn)不太方便,所以找了個(gè)類似的進(jìn)行學(xué)習(xí)使用 ChatGLM-6B,開(kāi)源支持中英文的對(duì)話大模型,基于 General Language Model (GLM) 架構(gòu),具有62億參數(shù),簡(jiǎn)單說(shuō)非常不錯(cuò),可能和chart GPT比較有些差距,但是開(kāi)源免費(fèi),并且可以在本地部署,支持中文

    2024年02月16日
    瀏覽(21)
  • 【LLM】chatglm-6B模型訓(xùn)練和推理

    【LLM】chatglm-6B模型訓(xùn)練和推理

    本篇文章記錄下 chatglm-6B 訓(xùn)練和推理過(guò)程 環(huán)境:Ubuntu 20.04 + 1.13.0+cu116 chatglm-6B 源代碼倉(cāng)庫(kù):鏈接 chatglm-6B 模型權(quán)重:鏈接 這里使用的是 THUDM 在 hugging face 開(kāi)源的模型。 因?yàn)槟P捅容^大,倉(cāng)庫(kù)保存模式使用的是 git lfs 模式,再 clone 之后再使用 git lfs pull 去 download 大文件。 c

    2024年02月10日
    瀏覽(49)
  • ChatGLM2-6B模型推理流程和模型架構(gòu)詳解

    ChatGLM2-6B模型推理流程和模型架構(gòu)詳解

    提示:文章寫完后,目錄可以自動(dòng)生成,如何生成可參考右邊的幫助文檔 因?yàn)楸救嗽谧龃竽P蛢?yōu)化方面的研究,之前拆了ChatGLM2的源代碼,看看能從哪些地方深入。結(jié)果剛拆完沒(méi)多久,昨天,也就是10 月 27 日,智譜 AI 在 2023 中國(guó)計(jì)算機(jī)大會(huì)(CNCC)上發(fā)布了自研第三代對(duì)話大模

    2024年02月03日
    瀏覽(30)
  • 手把手教你本地CPU環(huán)境部署清華大模型ChatGLM-6B,利用量化模型,本地即可開(kāi)始智能聊天,達(dá)到ChatGPT的80%

    手把手教你本地CPU環(huán)境部署清華大模型ChatGLM-6B,利用量化模型,本地即可開(kāi)始智能聊天,達(dá)到ChatGPT的80%

    大家好,我是微學(xué)AI,今天教你們本地CPU環(huán)境部署清華大ChatGLM-6B模型,利用量化模型,每個(gè)人都能跑動(dòng)大模型。ChatGLM-6B是一款出色的中英雙語(yǔ)對(duì)話模型,擁有超過(guò)62億個(gè)參數(shù),可高效地處理日常對(duì)話場(chǎng)景。與GLM-130B模型相比,ChatGLM-6B在對(duì)話場(chǎng)景處理能力方面表現(xiàn)更加卓越。此

    2024年02月01日
    瀏覽(26)
  • 使用Triton部署chatglm2-6b模型

    NVIDIA Triton Inference Server是一個(gè)針對(duì)CPU和GPU進(jìn)行優(yōu)化的云端和推理的解決方案。 支持的模型類型包括TensorRT、TensorFlow、PyTorch(meta-llama/Llama-2-7b)、Python(chatglm)、ONNX Runtime和OpenVino。 NVIDIA Triton Server是一個(gè)高性能的推斷服務(wù)器,具有以下特點(diǎn): 1. 高性能:Triton Server為使用GPU進(jìn)行推

    2024年02月08日
    瀏覽(20)
  • 開(kāi)源模型應(yīng)用落地-chatglm3-6b-批量推理-入門篇(四)

    開(kāi)源模型應(yīng)用落地-chatglm3-6b-批量推理-入門篇(四)

    ? ? ?剛開(kāi)始接觸AI時(shí),您可能會(huì)感到困惑,因?yàn)槊鎸?duì)眾多開(kāi)源模型的選擇,不知道應(yīng)該選擇哪個(gè)模型,也不知道如何調(diào)用最基本的模型。但是不用擔(dān)心,我將陪伴您一起逐步入門,解決這些問(wèn)題。 ? ? ?在信息時(shí)代,我們可以輕松地通過(guò)互聯(lián)網(wǎng)獲取大量的理論知識(shí)和概念。然

    2024年04月17日
    瀏覽(32)
  • 使用 CPU 本地安裝部署運(yùn)行 ChatGLM-6B 獲得自己的專屬 AI 寵物

    ChatGLM-6B 是一個(gè)清華開(kāi)源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于GLM架構(gòu),具有62億參數(shù)。結(jié)合模型量化技術(shù),ChatGLM-6B可以本地安裝部署運(yùn)行在消費(fèi)級(jí)的顯卡上做模型的推理和訓(xùn)練(全量?jī)H需14GB顯存,INT4 量化級(jí)別下最低只需 6GB 顯存)雖然智商比不過(guò) openAI 的 ChatGPT 模型,但

    2024年02月16日
    瀏覽(29)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包