国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

中英雙語對話大語言模型:ChatGLM-6B

這篇具有很好參考價值的文章主要介紹了中英雙語對話大語言模型:ChatGLM-6B。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

介紹

ChatGLM-6B 是一個開源的、支持中英雙語的對話語言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6GB 顯存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技術(shù),針對中文問答和對話進行了優(yōu)化。經(jīng)過約 1T 標識符的中英雙語訓(xùn)練,輔以監(jiān)督微調(diào)、反饋自助、人類反饋強化學(xué)習(xí)等技術(shù)的加持,62 億參數(shù)的 ChatGLM-6B 已經(jīng)能生成相當符合人類偏好的回答
為了方便下游開發(fā)者針對自己的應(yīng)用場景定制模型,我們同時實現(xiàn)了基于 P-Tuning v2 的高效參數(shù)微調(diào)方法 (使用指南) ,INT4 量化級別下最低只需 7GB 顯存即可啟動微調(diào)。

硬件需求

量化等級 最低 GPU 顯存(推理) 最低 GPU 顯存(高效參數(shù)微調(diào))
FP16(無量化) 13 GB 14 GB
INT8 8 GB 9 GB
INT4 6 GB 7 GB

CPU 部署

如果你沒有 GPU 硬件的話,也可以在 CPU 上進行推理,但是推理速度會更慢。使用方法如下(需要大概 32GB 內(nèi)存)

model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).float()

如果你的內(nèi)存不足,可以直接加載量化后的模型:

# INT8 量化的模型將"THUDM/chatglm-6b-int4"改為"THUDM/chatglm-6b-int8"
model = AutoModel.from_pretrained("THUDM/chatglm-6b-int4",trust_remote_code=True).float()

截圖

中英雙語對話大語言模型:ChatGLM-6B,語言模型,人工智能,自然語言處理

地址

ChatGLM-6B文章來源地址http://www.zghlxwxcb.cn/news/detail-657564.html

到了這里,關(guān)于中英雙語對話大語言模型:ChatGLM-6B的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • ChatGLM2-6B_ An Open Bilingual Chat LLM _ 開源雙語對話語言模型

    更強大的性能 :基于 ChatGLM 初代模型的開發(fā)經(jīng)驗,我們?nèi)嫔壛?ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 [GLM]的混合目標函數(shù),經(jīng)過了 1.4T 中英標識符的預(yù)訓(xùn)練與人類偏好對齊訓(xùn)練,評測結(jié)果顯示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BB

    2024年04月14日
    瀏覽(26)
  • 人工智能_CPU安裝運行ChatGLM大模型_安裝清華開源人工智能AI大模型ChatGlm-6B_004---人工智能工作筆記0099

    人工智能_CPU安裝運行ChatGLM大模型_安裝清華開源人工智能AI大模型ChatGlm-6B_004---人工智能工作筆記0099

    上一節(jié)003節(jié)我們安裝到最后,本來大模型都可以回答問題了,結(jié)果, 5分鐘后給出提示,需要GPU,我去..繼續(xù)看官網(wǎng),如何配置CPU運行 ?沒辦法繼續(xù)看: 這里是官網(wǎng)可以看到? 需要gcc的版本是11.3.0,這里我們先沒有去安裝,直接試試再說 yum install epel-release yum install gcc-11.3.0 安裝的話執(zhí)行這

    2024年02月21日
    瀏覽(30)
  • 中英雙語大模型ChatGLM論文閱讀筆記

    中英雙語大模型ChatGLM論文閱讀筆記

    論文傳送門: [1] GLM: General Language Model Pretraining with Autoregressive Blank Infilling [2] Glm-130b: An open bilingual pre-trained model Github鏈接: THUDM/ChatGLM-6B GLM-130B 和 GPT-3 175B(davinci) 相比,參數(shù)量減少,但性能提升了。 INT4 quantization without post training INT4量化是一種將模型的權(quán)重和激活從使用

    2024年02月02日
    瀏覽(25)
  • 解鎖大語言模型LLM對話潛力:ChatGLM3-6B的多輪對話實踐與深入探索

    隨著人工智能技術(shù)的飛速發(fā)展,多輪對話系統(tǒng)已成為自然語言處理領(lǐng)域的研究熱點。多輪對話要求模型不僅能理解用戶的當前輸入,還需結(jié)合對話歷史進行連貫回復(fù),這對模型的上下文理解和生成能力提出了更高要求。ChatGLM3-6B作為一種先進的大型語言模型,在多輪對話任務(wù)

    2024年02月22日
    瀏覽(22)
  • 人工智能_普通服務(wù)器CPU_安裝清華開源人工智能AI大模型ChatGlm-6B_001---人工智能工作筆記0096

    人工智能_普通服務(wù)器CPU_安裝清華開源人工智能AI大模型ChatGlm-6B_001---人工智能工作筆記0096

    使用centos安裝,注意安裝之前,保證系統(tǒng)可以聯(lián)網(wǎng),然后執(zhí)行yum update 先去更新一下系統(tǒng),可以省掉很多麻煩 20240219_150031 這里我們使用centos系統(tǒng)吧,使用習(xí)慣了. ChatGlm首先需要一臺個人計算機,或者服務(wù)器, 要的算力,訓(xùn)練最多,微調(diào)次之,推理需要算力最少 其實很多都支持CPU,但為什么

    2024年02月20日
    瀏覽(24)
  • 人工智能_PIP3安裝使用國內(nèi)鏡像源_安裝GIT_普通服務(wù)器CPU_安裝清華開源人工智能AI大模型ChatGlm-6B_002---人工智能工作筆記0097

    人工智能_PIP3安裝使用國內(nèi)鏡像源_安裝GIT_普通服務(wù)器CPU_安裝清華開源人工智能AI大模型ChatGlm-6B_002---人工智能工作筆記0097

    接著上一節(jié)來看,可以看到,這里 創(chuàng)建軟連接以后 可以看到執(zhí)行python3 -V 就可以看到已經(jīng)安裝成功 python3 然后再去安裝pip3 ?首先去下載軟件,到/data/soft ,可以用wget命令也可以自己用瀏覽器下載 然后再去安裝 python3 get-pip.py 可以看到報錯了

    2024年02月21日
    瀏覽(33)
  • Python:清華ChatGLM-6B中文對話模型部署

    Python:清華ChatGLM-6B中文對話模型部署

    1、簡介 ChatGLM-6B 是一個開源的、支持中英雙語的對話語言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6GB 顯存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技術(shù),針對中文問答和對話

    2024年02月08日
    瀏覽(26)
  • ChatGLM-6B —— 80%替換ChatGPT的開源對話大模型介紹(GLM,General Language Model )
  • 自然語言處理 微調(diào)ChatGLM-6B大模型

    自然語言處理 微調(diào)ChatGLM-6B大模型

    bert的主要任務(wù)是隨機的去除掉某個單詞,使用上下文將其預(yù)測出來(相當于完形填空任務(wù)); GPT的主要任務(wù)是根據(jù)前面一句話,預(yù)測下面的內(nèi)容; GLM結(jié)合了bert的強大雙向注意力與gpt的強大生成能力兩種能力,被nask的地方使用單向注意力,未被mask的地方使用雙向注意力 預(yù)測

    2024年02月09日
    瀏覽(21)
  • ChatGLM2-6B 大語言模型本地搭建

    ChatGLM2-6B 大語言模型本地搭建

    ChatGLM2-6B 是清華 NLP 團隊于不久前發(fā)布的中英雙語對話模型,它具備了強大的問答和對話功能。擁有最大32K上下文,并且在授權(quán)后可免費商用! ChatGLM2-6B的6B代表了訓(xùn)練參數(shù)量為60億,同時運用了模型量化技術(shù),意味著用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下

    2024年01月21日
    瀏覽(47)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包