国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

騰訊云部署清華大學(xué)ChatGLM-6B實(shí)戰(zhàn)

這篇具有很好參考價(jià)值的文章主要介紹了騰訊云部署清華大學(xué)ChatGLM-6B實(shí)戰(zhàn)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

簡(jiǎn)介(來(lái)自官方)

ChatGLM-6B 是一個(gè)開源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于?General Language Model (GLM)?架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技術(shù),針對(duì)中文問(wèn)答和對(duì)話進(jìn)行了優(yōu)化。經(jīng)過(guò)約 1T 標(biāo)識(shí)符的中英雙語(yǔ)訓(xùn)練,輔以監(jiān)督微調(diào)、反饋?zhàn)灾?、人類反饋?qiáng)化學(xué)習(xí)等技術(shù)的加持,62 億參數(shù)的 ChatGLM-6B 已經(jīng)能生成相當(dāng)符合人類偏好的回答,更多信息請(qǐng)參考我們的博客。

為了方便下游開發(fā)者針對(duì)自己的應(yīng)用場(chǎng)景定制模型,我們同時(shí)實(shí)現(xiàn)了基于?P-Tuning v2?的高效參數(shù)微調(diào)方法?(使用指南)?,INT4 量化級(jí)別下最低只需 7GB 顯存即可啟動(dòng)微調(diào)。

不過(guò),由于 ChatGLM-6B 的規(guī)模較小,目前已知其具有相當(dāng)多的局限性,如事實(shí)性/數(shù)學(xué)邏輯錯(cuò)誤,可能生成有害/有偏見內(nèi)容,較弱的上下文能力,自我認(rèn)知混亂,以及對(duì)英文指示生成與中文指示完全矛盾的內(nèi)容。請(qǐng)大家在使用前了解這些問(wèn)題,以免產(chǎn)生誤解。更大的基于 1300 億參數(shù)?GLM-130B?的 ChatGLM 正在內(nèi)測(cè)開發(fā)中。

準(zhǔn)備工作

硬件要求(騰訊云V100顯卡,一個(gè)月大幾千,肉疼)

量化等級(jí) 最低 GPU 顯存(推理) 最低 GPU 顯存(高效參數(shù)微調(diào))
FP16(無(wú)量化) 13 GB 14 GB
INT8 8 GB 9 GB
INT4 6 GB 7 GB

代碼clone(怎么安裝Git工具不贅述)

git clone https://github.com/THUDM/ChatGLM-6B.git

環(huán)境安裝

使用 pip 安裝依賴:pip install -r requirements.txt,其中?transformers?庫(kù)版本為?4.27.1(就用這個(gè)就行)。

注意:Python要3.8以上!?。?!否則能坑死你!

模型以及配置文件準(zhǔn)備

1、官方下載:清華大學(xué)云盤

2、huggingface開源社區(qū)下載:THUDM/chatglm-6b at main

把對(duì)應(yīng)的模型以及配置文件記得下載全,結(jié)果是這樣的:

騰訊云部署清華大學(xué)ChatGLM-6B實(shí)戰(zhàn)?

騰訊云部署清華大學(xué)ChatGLM-6B實(shí)戰(zhàn)?

踩坑:記得教研一下模型的SHA256是否跟官方一致,否則模型肯定加載失??!

3、準(zhǔn)備啟動(dòng):

三種方式均可:

python3.8 web_demo.py
python3.8 web_demo2.py

streamlit run web_demo2.py

4、注意:web方式記得把云服務(wù)器的端口開放了,否則用不了!

效果展示:

騰訊云部署清華大學(xué)ChatGLM-6B實(shí)戰(zhàn)

騰訊云部署清華大學(xué)ChatGLM-6B實(shí)戰(zhàn)

騰訊云部署清華大學(xué)ChatGLM-6B實(shí)戰(zhàn)

大家又遇到坑的地方,歡迎留言!?文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-513002.html

到了這里,關(guān)于騰訊云部署清華大學(xué)ChatGLM-6B實(shí)戰(zhàn)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 清華ChatGLM-6B本地GPU推理部署

    清華ChatGLM-6B本地GPU推理部署

    目錄 1 簡(jiǎn)介 2 硬件需求 3 Demo和模型下載 3.1 安裝Git LFS 3.2 Demo下載 3.3 模型下載 3.4 文件目錄 4 環(huán)境安裝 5 運(yùn)行 5.1 FP16 5.2 量化 6 演示 ChatGLM-6B是一個(gè)開源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于General Language Model(GLM)架構(gòu),具有62億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)

    2024年02月07日
    瀏覽(29)
  • Python:清華ChatGLM-6B中文對(duì)話模型部署

    Python:清華ChatGLM-6B中文對(duì)話模型部署

    1、簡(jiǎn)介 ChatGLM-6B 是一個(gè)開源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技術(shù),針對(duì)中文問(wèn)答和對(duì)話

    2024年02月08日
    瀏覽(26)
  • 十分鐘部署清華ChatGLM-6B,實(shí)測(cè)效果還可以~~(Linux版)

    十分鐘部署清華ChatGLM-6B,實(shí)測(cè)效果還可以~~(Linux版)

    前段時(shí)間,清華公布了中英雙語(yǔ)對(duì)話模型 ?ChatGLM-6B ,具有60億的參數(shù),初具問(wèn)答和對(duì)話功能。最!最!最重要的是它能夠支持私有化部署,大部分實(shí)驗(yàn)室的服務(wù)器基本上都能跑起來(lái)。 因?yàn)闂l件特殊,實(shí)驗(yàn)室網(wǎng)絡(luò)不通,那么如何進(jìn)行離線部署呢? 經(jīng)過(guò)一上午的折騰終于搞定了

    2024年02月08日
    瀏覽(36)
  • 【ChatGLM】本地版ChatGPT ?6G顯存即可輕松使用 !ChatGLM-6B 清華開源模型本地部署教程

    【ChatGLM】本地版ChatGPT ?6G顯存即可輕松使用 !ChatGLM-6B 清華開源模型本地部署教程

    目錄 感謝B站秋葉aaaki大佬 前言 部署資源 部署流程? 實(shí)機(jī)演示 ChatGML微調(diào)(人格煉成)(個(gè)人感覺蠻有趣的地方) ?分享有趣の微調(diào)人格 ?實(shí)機(jī)演示(潘金蓮人格) 秋葉aaaki的個(gè)人空間_嗶哩嗶哩_bilibili https://space.bilibili.com/12566101 由于ChatGLM-6B的規(guī)模較小,目前已知其具有相當(dāng)

    2024年02月06日
    瀏覽(34)
  • 模型訓(xùn)練系列:1、用清華ChatGLM-6B模型部署自己的本地AI助手

    模型訓(xùn)練系列:1、用清華ChatGLM-6B模型部署自己的本地AI助手

    最近清華大學(xué)開源的ChatGLM-6B語(yǔ)言模型在國(guó)際上大出風(fēng)頭,僅僅62億參數(shù)的小模型,能力卻很強(qiáng)。很期待他們后續(xù)1300億參數(shù)模型130B的發(fā)布。 為什么一些能力較弱的小模型,這么受追捧?因?yàn)镃hatGPT、GPT-4雖好,畢竟被國(guó)外封鎖,而且還要付費(fèi),更重要的是,LLM要在各行業(yè)提高生

    2024年02月11日
    瀏覽(28)
  • 深度學(xué)習(xí)實(shí)戰(zhàn)38-基于清華ChatGLM-6b開源模型做體檢報(bào)告解讀任務(wù),讓體檢報(bào)告解讀變得輕松

    大家好,我是微學(xué)AI,今天給大家介紹一下深度學(xué)習(xí)實(shí)戰(zhàn)38-基于清華ChatGLM-6b開源模型做體檢報(bào)告解讀任務(wù),讓體檢報(bào)告解讀變得輕松。ChatGLM-6b是清華大學(xué)團(tuán)隊(duì)開源的一個(gè)語(yǔ)言大模型。本文將介紹一種基于ChatGLM-6B的體檢報(bào)告智能解讀應(yīng)用項(xiàng)目。首先,我們將討論體檢報(bào)告解讀

    2024年02月10日
    瀏覽(61)
  • Ubuntu 更換清華大學(xué)鏡像源

    Ubuntu 更換清華大學(xué)鏡像源

    通常我們使用ubunntu的時(shí)候總是出現(xiàn)網(wǎng)絡(luò)過(guò)慢導(dǎo)致的更新下載失敗等問(wèn)題。 Ubuntu默認(rèn)的服務(wù)器是在國(guó)外,自然連接就很慢。 這里我們更換成國(guó)內(nèi)的鏡像源,這里使用清華鏡像源。 操作步驟如下:https://blog.csdn.net/qq_57171795/article/details/123109463 下面介紹更換清華鏡像源的方法 1

    2024年02月01日
    瀏覽(28)
  • 2023清華大學(xué)go學(xué)習(xí)筆記

    2023清華大學(xué)go學(xué)習(xí)筆記

    go(又稱Golang) 應(yīng)用領(lǐng)域: go服務(wù)器 go分布式/云計(jì)算 區(qū)塊鏈工程師 360開源的日志搜索系統(tǒng) qihoo360/poseidon 開發(fā)團(tuán)隊(duì): 羅伯特·格瑞史莫(Robert Griesemer),羅勃派克(Rob) Pike)及肯·湯曾遜(Ken Thompson)于2007年9月開始設(shè)計(jì)Go,稍后lan LanceTaylor、Russ Cox0入項(xiàng)目. Rcoect CicepeeneR9D Pae Go語(yǔ)言發(fā)展

    2024年02月05日
    瀏覽(24)
  • 【ChatGPT散文篇】ChatGPT-清華大學(xué)的講座要點(diǎn)

    【ChatGPT散文篇】ChatGPT-清華大學(xué)的講座要點(diǎn)

    剛聽了清華大學(xué)關(guān)于ChatGPT的講座,總結(jié)幾個(gè)要點(diǎn): 1、AI有可能成為地球上最初的硅基生命。 2、AI已迭代至博士研究生的智力水平。 3、以后將不存在學(xué)科和專業(yè)的概念,也不存在文科理科的區(qū)分,將是學(xué)科大融合。因?yàn)橐粋€(gè)文科生哪怕不懂代碼,只要會(huì)向AI提問(wèn),就能編程。

    2024年02月08日
    瀏覽(21)
  • 數(shù)據(jù)結(jié)構(gòu)(期末復(fù)習(xí)篇) 清華大學(xué)出版社

    數(shù)據(jù)結(jié)構(gòu)(期末復(fù)習(xí)篇) 清華大學(xué)出版社

    1.1.1 數(shù)據(jù)結(jié)構(gòu)的定義 數(shù)據(jù):描述客觀事物的數(shù)和字符的集合 數(shù)據(jù)元素: 數(shù)據(jù)的基本單位 數(shù)據(jù)對(duì)象: 性質(zhì)相同的數(shù)據(jù)元素的集合,是數(shù)據(jù)的一個(gè)子集 數(shù)據(jù)結(jié)構(gòu): 數(shù)據(jù)元素以及數(shù)據(jù)元素之間的關(guān)系,可以看作互相之間有著特定關(guān)系的集合 1.1.2 邏輯結(jié)構(gòu) 1.邏輯結(jié)構(gòu)的表示 一?

    2024年01月20日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包