国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

模型訓(xùn)練系列:1、用清華ChatGLM-6B模型部署自己的本地AI助手

這篇具有很好參考價(jià)值的文章主要介紹了模型訓(xùn)練系列:1、用清華ChatGLM-6B模型部署自己的本地AI助手。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

最近清華大學(xué)開(kāi)源的ChatGLM-6B語(yǔ)言模型在國(guó)際上大出風(fēng)頭,僅僅62億參數(shù)的小模型,能力卻很強(qiáng)。很期待他們后續(xù)1300億參數(shù)模型130B的發(fā)布。

為什么一些能力較弱的小模型,這么受追捧?因?yàn)镃hatGPT、GPT-4雖好,畢竟被國(guó)外封鎖,而且還要付費(fèi),更重要的是,LLM要在各行業(yè)提高生產(chǎn)力,很多企業(yè)接下來(lái)肯定是要自己部署語(yǔ)言模型的,畢竟誰(shuí)也不敢泄漏自己商業(yè)數(shù)據(jù)給別人的AI去訓(xùn)練,為他人做嫁衣,最后砸了自己的飯碗。

這里根據(jù)我的實(shí)操經(jīng)驗(yàn),分享一下如何自己搭建一個(gè)語(yǔ)言模型服務(wù)器。最后效果如下:

模型訓(xùn)練系列:1、用清華ChatGLM-6B模型部署自己的本地AI助手

首先需要搞一臺(tái)GPU較強(qiáng)的機(jī)器,推薦先租一臺(tái)騰訊云、阿里云等AI訓(xùn)練的機(jī)器,T4顯卡就行,一般價(jià)格是按量付費(fèi)幾毛錢(qián)一個(gè)小時(shí)。我是搶到了騰訊云秒殺活動(dòng)的主機(jī),60塊錢(qián)半個(gè)月,白菜價(jià)。土豪可以自己去裝機(jī)長(zhǎng)期玩。

能干這個(gè)活的都是碼農(nóng)吧,那就不廢話了,直接上sh命令(:

#我的主機(jī)環(huán)境是	Ubuntu Server 18.04 LTS 64位,預(yù)裝了	
# Pytorch 1.9.1 Ubuntu 18.04 GPU基礎(chǔ)鏡像(預(yù)裝460驅(qū)動(dòng))
#以下命令從 /root 目錄位置開(kāi)始進(jìn)行操作的

#更新Ubuntu軟件源
apt-get update
#創(chuàng)建目錄用于存放ChatGLM源代碼
mkdir ChatGLM
cd ChatGLM/
#克隆ChatGLM-6B程序源代碼
git clone https://github.com/THUDM/ChatGLM-6B.git
#創(chuàng)建目錄用于存放ChatGLM6B-int4量化模型
mkdir model
cd model/
#安裝git-lfs便于文件管理
apt install git-lfs
#當(dāng)前目錄初始化為git倉(cāng)庫(kù)、安裝lfs
git init
git lfs install
#克隆ChatGLM-6B的int4量化模型
git clone https://huggingface.co/THUDM/chatglm-6b-int4
#安裝python調(diào)用cuda的工具包
apt install nvidia-cuda-toolkit

cd ChatGLM-6B/
#添加三行依賴:
vim requirements.txt 
	chardet
	streamlit
	streamlit-chat
#安裝所需的python依賴庫(kù)	
pip install -r requirements.txt 
#代碼中2處修改為模型絕對(duì)路徑:
vim web_demo2.py 
	/root/ChatGLM/model/chatglm-6b-int4
	
#運(yùn)行ChatGLM6B 的web版聊天程序,即可訪問(wèn)http://主機(jī)IP:8080進(jìn)行聊天
python3 -m streamlit run ./web_demo2.py --server.port 8080

本文來(lái)自知識(shí)星球:ConnectGPT ,一個(gè)致力于探索AI、語(yǔ)言模型的應(yīng)用技術(shù)的小圈子。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-512261.html

到了這里,關(guān)于模型訓(xùn)練系列:1、用清華ChatGLM-6B模型部署自己的本地AI助手的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【AI】清華開(kāi)源中英雙語(yǔ)對(duì)話模型ChatGLM2-6B本地安裝筆記

    【AI】清華開(kāi)源中英雙語(yǔ)對(duì)話模型ChatGLM2-6B本地安裝筆記

    首先,直接上資源,網(wǎng)盤(pán)中是ChatGLM2-6B源碼及模型文件: 鏈接:https://pan.baidu.com/s/1DciporsVT-eSiVIAeU-YmQ 提取碼:cssa 官方的Readme已經(jīng)很詳盡了,再寫(xiě)點(diǎn)安裝博客有點(diǎn)畫(huà)蛇添足。本著記錄自己的工作內(nèi)容的初衷,還是寫(xiě)一寫(xiě)吧,畢竟輸出才是最好的學(xué)習(xí)。 本文記錄了本地安裝Cha

    2024年02月16日
    瀏覽(34)
  • ChatGLM2-6B、ChatGLM-6B 模型介紹及訓(xùn)練自己數(shù)據(jù)集實(shí)戰(zhàn)

    ChatGLM2-6B、ChatGLM-6B 模型介紹及訓(xùn)練自己數(shù)據(jù)集實(shí)戰(zhàn)

    介紹 ChatGLM-6B是開(kāi)源的文本生成式對(duì)話模型,基于General Language Model(GLM)框架,具有62億參數(shù),結(jié)合模型蒸餾技術(shù),實(shí)測(cè)在2080ti顯卡訓(xùn)練中上(INT4)顯存占用 6G 左右, 優(yōu)點(diǎn) :1.較低的部署門(mén)檻: FP16 半精度下,ChatGLM-6B 需要至少 13GB 的顯存進(jìn)行推理,結(jié)合模型量化技術(shù),一需求可以進(jìn)一步

    2024年02月12日
    瀏覽(25)
  • ChatGLM-6B 模型介紹及訓(xùn)練自己數(shù)據(jù)集實(shí)戰(zhàn)

    ChatGLM-6B 模型介紹及訓(xùn)練自己數(shù)據(jù)集實(shí)戰(zhàn)

    介紹 ChatGLM-6B是開(kāi)源的文本生成式對(duì)話模型,基于General Language Model(GLM)框架,具有62億參數(shù),結(jié)合模型蒸餾技術(shù),實(shí)測(cè)在2080ti顯卡訓(xùn)練中上(INT4)顯存占用 6G 左右, 優(yōu)點(diǎn) :1.較低的部署門(mén)檻: FP16 半精度下,ChatGLM-6B 需要至少 13GB 的顯存進(jìn)行推理,結(jié)合模型量化技術(shù),一需求可以進(jìn)一步

    2024年02月06日
    瀏覽(16)
  • Windows下cpu部署運(yùn)行清華大學(xué)ChatGLM-6B語(yǔ)言模型(詳解)

    ChatGLM-6B 清華大學(xué)實(shí)現(xiàn)的 一個(gè)開(kāi)源的、支持中英雙語(yǔ) 、 支持圖像理解 的對(duì)話語(yǔ)言模型 。 它 基于

    2024年02月12日
    瀏覽(18)
  • 清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程

    清華大學(xué)開(kāi)源ChatGLM2-6B開(kāi)源模型在anaconda下的虛擬環(huán)境詳細(xì)部署及安裝教程

    python版本要求:3.8以上 沒(méi)有安裝python的沒(méi)有關(guān)系,我們?cè)谙旅姘惭banaconda中會(huì)自動(dòng)生成python,有了python的建議刪除,通過(guò)anaconda安裝python以便于后面創(chuàng)建虛擬環(huán)境。 windows系統(tǒng):Windows 10 以上,推薦N卡(NVIDIA顯卡20系列以上) 注意:處理器為AMD容易報(bào)錯(cuò),intel的不容易報(bào)錯(cuò),配

    2024年02月16日
    瀏覽(37)
  • 使用 CPU 本地安裝部署運(yùn)行 ChatGLM-6B 獲得自己的專(zhuān)屬 AI 寵物

    ChatGLM-6B 是一個(gè)清華開(kāi)源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于GLM架構(gòu),具有62億參數(shù)。結(jié)合模型量化技術(shù),ChatGLM-6B可以本地安裝部署運(yùn)行在消費(fèi)級(jí)的顯卡上做模型的推理和訓(xùn)練(全量?jī)H需14GB顯存,INT4 量化級(jí)別下最低只需 6GB 顯存)雖然智商比不過(guò) openAI 的 ChatGPT 模型,但

    2024年02月16日
    瀏覽(29)
  • 基于chatGLM-6B模型預(yù)訓(xùn)練,添加自己的數(shù)據(jù)集微調(diào)(linux版)(ptuning & lora)

    基于chatGLM-6B模型預(yù)訓(xùn)練,添加自己的數(shù)據(jù)集微調(diào)(linux版)(ptuning & lora)

    目錄 準(zhǔn)備工作 安裝7z ptuning預(yù)訓(xùn)練 ChatGLM-6B-Ptuning.7z 懶人包下載 上傳文件并解壓縮 拉取依賴 進(jìn)行訓(xùn)練 啟動(dòng)服務(wù) 注意事項(xiàng)(攬睿星舟云算力平臺(tái)) lora預(yù)訓(xùn)練 chatGLM-All-In-One.7z 懶人包下載 上傳文件并解壓縮 拉取依賴 進(jìn)行訓(xùn)練 啟動(dòng)服務(wù) 注意事項(xiàng)(攬睿星舟云算力平臺(tái)) 展示

    2024年02月07日
    瀏覽(24)
  • 本地部署ChatGLM-6B模型(使用JittorLLMs大模型推理庫(kù))

    本地部署ChatGLM-6B模型(使用JittorLLMs大模型推理庫(kù))

    網(wǎng)上沖浪時(shí)發(fā)現(xiàn)的這兩個(gè)國(guó)產(chǎn)模型,重點(diǎn)是對(duì)硬件的要求并不高,有2GB內(nèi)存就可以跑,覺(jué)得有趣就弄來(lái)玩了下。 https://github.com/Jittor/JittorLLMs https://github.com/THUDM/ChatGLM-6B 簡(jiǎn)單介紹下用到的倉(cāng)庫(kù) ChatGLM-6B ChatGLM-6B 是一個(gè)開(kāi)源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于 General Language

    2024年02月01日
    瀏覽(23)
  • 【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型)

    【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型)

    ChatGLM2-6B是一個(gè)開(kāi)源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于General Language Model (GLM)架構(gòu)。 ChatGLM2-6B具備的能力: 自我認(rèn)知:“介紹一下你的優(yōu)點(diǎn)” 提綱寫(xiě)作:“幫我寫(xiě)一個(gè)介紹ChatGLM的博客提綱” 文案寫(xiě)作:“寫(xiě)10條熱評(píng)文案” 信息抽?。骸畯纳鲜鲂畔⒅谐槿∪?、時(shí)間、事件

    2024年02月14日
    瀏覽(22)
  • 開(kāi)源雙語(yǔ)對(duì)話語(yǔ)言模型 ChatGLM-6B 本地私有化部署

    開(kāi)源雙語(yǔ)對(duì)話語(yǔ)言模型 ChatGLM-6B 本地私有化部署

    本文首發(fā)于:https://www.licorne.ink/2023/08/llm-chatglm-6b-local-deploy/ ChatGLM-6B 是一個(gè)開(kāi)源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。 ChatGL

    2024年02月10日
    瀏覽(105)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包