国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型)

這篇具有很好參考價(jià)值的文章主要介紹了【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

1、簡(jiǎn)介

(1)ChatGLM2-6B

ChatGLM2-6B是一個(gè)開(kāi)源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于General Language Model (GLM)架構(gòu)。

ChatGLM2-6B具備的能力:

  • 自我認(rèn)知:“介紹一下你的優(yōu)點(diǎn)”
  • 提綱寫(xiě)作:“幫我寫(xiě)一個(gè)介紹ChatGLM的博客提綱”
  • 文案寫(xiě)作:“寫(xiě)10條熱評(píng)文案”
  • 信息抽取:‘從上述信息中抽取人、時(shí)間、事件’

大語(yǔ)言模型通?;谕ㄗR(shí)知識(shí)進(jìn)行訓(xùn)練,因此在面向如下場(chǎng)景時(shí),常常需要借助模型微調(diào)或提示詞工程提升語(yǔ)言模型應(yīng)用效果:

  • 垂直領(lǐng)域知識(shí)
  • 基于私有數(shù)據(jù)的問(wèn)答

【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

(2)LangChain

LangChain是一個(gè)用于開(kāi)發(fā)由語(yǔ)言模型驅(qū)動(dòng)的應(yīng)用程序的框架。
主要功能:

  • 調(diào)用語(yǔ)言模型
  • 將不同數(shù)據(jù)源接入到語(yǔ)言模型的交互中
  • 允許語(yǔ)言模型與運(yùn)行環(huán)境交互

LangChain中提供的模塊

  • Modules:支持的模型類型和集成。
  • Prompt:提示詞管理、優(yōu)化和序列化。
  • Memory:內(nèi)存是指在鏈/代理調(diào)用之間持續(xù)存在的狀態(tài)。
  • Indexes:當(dāng)語(yǔ)言模型與特定于應(yīng)用程序的數(shù)據(jù)相結(jié)合時(shí),會(huì)變得更加強(qiáng)大-此模塊包含用于加載、查詢和更新外部數(shù)據(jù)的接口和集成。
  • Chain:鏈?zhǔn)墙Y(jié)構(gòu)化的調(diào)用序列(對(duì)LLM或其他實(shí)用程序)。
  • Agents:代理是一個(gè)鏈,其中LLM在給定高級(jí)指令和一組工具的情況下,反復(fù)決定操作,執(zhí)行操作并觀察結(jié)果,直到高級(jí)指令完成。
  • Callbacks:回調(diào)允許您記錄和流式傳輸任何鏈的中間步驟,從而輕松觀察、調(diào)試和評(píng)估應(yīng)用程序的內(nèi)部。

LangChain的運(yùn)用場(chǎng)景:

  • 文檔問(wèn)答
  • 個(gè)人助理
  • 查詢表格數(shù)據(jù)
  • 與API交互
  • 信息提取
  • 文檔總結(jié)

(3)基于單一文檔問(wèn)答的實(shí)現(xiàn)原理

1、加載本地文檔:讀取本地文檔加載為文本
2、文本拆分:將文本按照字符、長(zhǎng)度或語(yǔ)義進(jìn)行拆分
3、根據(jù)提問(wèn)匹配文本:根據(jù)用戶提問(wèn)對(duì)文本進(jìn)行字符匹配或語(yǔ)義檢索
4、構(gòu)建Prompt:將匹配文本、用戶提問(wèn)加入Prompt模板
5、LLM生成回答:將Pronpt發(fā)送給LLM獲得基于文檔內(nèi)容的回答

(4)大規(guī)模語(yǔ)言模型系列技術(shù):以GLM-130B為例

  • 自編碼模型BERT:雙向注意力,文本理解
  • 自回歸模型GPT:?jiǎn)蜗蜃⒁饬ΓL(zhǎng)文本生成
  • 編碼器-解碼器模型T5:編解碼,對(duì)話任務(wù)

【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理
GLM本質(zhì)是類似一個(gè)自回歸填空的過(guò)程

(5)新建知識(shí)庫(kù)

新建知識(shí)庫(kù)的過(guò)程相當(dāng)于在本地新建一個(gè)路徑,因此不支持路徑當(dāng)中存在中文。但是知識(shí)庫(kù)的文件可以使用中文名稱。

1、上傳文件:將文件上傳到知識(shí)庫(kù)當(dāng)中,這個(gè)過(guò)程相當(dāng)于將文件加載成文本并進(jìn)行向量化的過(guò)程。

【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理
【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

(6)效果優(yōu)化方向

1、模型微調(diào):對(duì)llm和embedding基于專業(yè)領(lǐng)域數(shù)據(jù)進(jìn)行微調(diào)。

2、文檔加工:在文本分段后,對(duì)每段分別進(jìn)行總結(jié),基于總結(jié)內(nèi)容語(yǔ)義進(jìn)行匹配。

3、借助不同的模型能力:在text2sql、text2cpyher場(chǎng)景下需要產(chǎn)生代碼時(shí),可借助不同模型能力。

2、ChatGLM2-6B本地安裝與部署

視頻教程:視頻教程:----->ChatGLM2-6B本地安裝與部署-視頻教程

【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理
注意 :chatglm2-6b相比于chatglm-6b在性能上提升了不少。在選擇本地部署的時(shí)候,我查看到自己顯卡只有512M,無(wú)法滿足部署需要的24G顯卡的要求。(注:查看顯卡多大可以安裝一個(gè)lu大師),因此我選擇在某寶上租用了一個(gè)24G的GPU。

部署步驟如下:

1、根據(jù)視頻上面的,先下載懶人安裝包:懶人包一鍵部署

【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

2、將chatglm.zip安裝包解壓縮之后放在ChatGLM2-6B文件夾下面

【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

3、創(chuàng)建一個(gè)叫VisualGLM-6B的文件夾,在此文件夾里面再創(chuàng)建一個(gè)叫cache的文件夾

【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

4、配置緩存文件

【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理
【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

5、之后點(diǎn)擊一鍵啟動(dòng),啟動(dòng)項(xiàng)目

【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理
【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

最終即可跳轉(zhuǎn)到UI界面:

【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理
注:如果要自己部署請(qǐng)確保pytorch是2.0.1

3、ChatGLM2-6B-32K本地安裝

2023年8月3號(hào)GLM技術(shù)團(tuán)隊(duì)發(fā)布了基于 ChatGLM2-6B 的新模型 ChatGLM-6B-32k ,目前 langchain-chatglm 項(xiàng)目中已經(jīng)可以使用,除此之外項(xiàng)目中還增加幾款 embedding 模型作為備選,text2vec-base-multilingual,text2vec-base-chinese-sentence 和 text2vec-base-chinese-paraphrase。

此外,項(xiàng)目將于近期發(fā)布 0.2.0 版本,采用 fastchat + langchain + fastapi + streamlit 的方式進(jìn)行了重構(gòu),預(yù)計(jì)最快本周上線。

模型下載地址:
chatglm2-6b-32k:https://huggingface.co/THUDM/chatglm2-6b-32k
text2vec-base-chinese-sentence:https://huggingface.co/shibing624/text2vec-base-chinese-sentence
text2vec-base-chinese-paraphrase:https://huggingface.co/shibing624/text2vec-base-chinese-paraphrase
text2vec-base-multilingual:https://huggingface.co/shibing624/text2vec-base-multilingual

【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理
【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型),【Phthon】,# 【數(shù)據(jù)挖掘】,# 【大數(shù)據(jù)分析】,語(yǔ)言模型,人工智能,自然語(yǔ)言處理文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-619431.html

到了這里,關(guān)于【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語(yǔ)言模型)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • ChatGLM2-6B! 我跑通啦!本地部署+微調(diào)(windows系統(tǒng))

    ChatGLM2-6B! 我跑通啦!本地部署+微調(diào)(windows系統(tǒng))

    記錄一下此時(shí)此刻,2023年7月8日22點(diǎn)04,從ChatGLM2-6B在7月4日開(kāi)放了ptuning到此時(shí)此刻,ChatGLM2-6B的微調(diào)終于被哥們跑通了! 從 本地部署ChatGLM2-6B 到 本地進(jìn)行P-tuning微調(diào) ,再到最后的 模型檢測(cè) ,哥們?nèi)芡耍?這里非常感謝ChatGLM2-6B|開(kāi)源本地化語(yǔ)言模型這篇博客!因?yàn)槲也贾?/p>

    2024年02月16日
    瀏覽(22)
  • 使用Triton部署chatglm2-6b模型

    NVIDIA Triton Inference Server是一個(gè)針對(duì)CPU和GPU進(jìn)行優(yōu)化的云端和推理的解決方案。 支持的模型類型包括TensorRT、TensorFlow、PyTorch(meta-llama/Llama-2-7b)、Python(chatglm)、ONNX Runtime和OpenVino。 NVIDIA Triton Server是一個(gè)高性能的推斷服務(wù)器,具有以下特點(diǎn): 1. 高性能:Triton Server為使用GPU進(jìn)行推

    2024年02月08日
    瀏覽(20)
  • 開(kāi)源雙語(yǔ)對(duì)話語(yǔ)言模型 ChatGLM-6B 本地私有化部署

    開(kāi)源雙語(yǔ)對(duì)話語(yǔ)言模型 ChatGLM-6B 本地私有化部署

    本文首發(fā)于:https://www.licorne.ink/2023/08/llm-chatglm-6b-local-deploy/ ChatGLM-6B 是一個(gè)開(kāi)源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。 ChatGL

    2024年02月10日
    瀏覽(105)
  • 以大語(yǔ)言模型ChatGLM2-6B為后臺(tái),打造個(gè)人語(yǔ)音交互機(jī)器人Demo

    以大語(yǔ)言模型ChatGLM2-6B為后臺(tái),打造個(gè)人語(yǔ)音交互機(jī)器人Demo

    隨著以ChatGLM2-6B為代表的開(kāi)源大型語(yǔ)言模型的興起,人工智能革命正席卷全球…… ChatGLM2-6B這一代表性的開(kāi)源大型模型,以其易于部署、適度的參數(shù)量和強(qiáng)大的中文處理能力,為個(gè)人用戶提供了在個(gè)人顯卡上部署大型模型的便捷途徑。 然而,在大型語(yǔ)言模型領(lǐng)域,人機(jī)交互仍

    2024年02月05日
    瀏覽(19)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain實(shí)踐

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已經(jīng)正式發(fā)布,引入了如下新特性: ①. 基座模型升級(jí),性能更強(qiáng)大,在中文C-Eval榜單中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 對(duì)學(xué)術(shù)研究完全開(kāi)放,允許申請(qǐng)商用授權(quán)。 目前大多數(shù)部署方案采用的是

    2024年02月12日
    瀏覽(27)
  • LLMs之ChatGLM2:ChatGLM2-6B本地部署之單機(jī)推理(API/CLI/GUI)、低成本部署(GPU量化部署/CPU及其量化部署/Mac部署/多卡部署)、有限資源下高效微調(diào)(全參/P-t

    LLMs之ChatGLM2:ChatGLM2-6B本地部署之單機(jī)推理(API/CLI/GUI)、低成本部署(GPU量化部署/CPU及其量化部署/Mac部署/多卡部署)、有限資源下高效微調(diào)(全參/P-tuning v2)、模型評(píng)估和推理之圖文教程之詳細(xì)攻略 目錄 一、配置基礎(chǔ)環(huán)境及其注意事項(xiàng) 第一步、檢測(cè)軟硬件環(huán)境

    2024年02月07日
    瀏覽(29)
  • ChatGLM2-6B_ An Open Bilingual Chat LLM _ 開(kāi)源雙語(yǔ)對(duì)話語(yǔ)言模型

    更強(qiáng)大的性能 :基于 ChatGLM 初代模型的開(kāi)發(fā)經(jīng)驗(yàn),我們?nèi)嫔?jí)了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 [GLM]的混合目標(biāo)函數(shù),經(jīng)過(guò)了 1.4T 中英標(biāo)識(shí)符的預(yù)訓(xùn)練與人類偏好對(duì)齊訓(xùn)練,評(píng)測(cè)結(jié)果顯示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BB

    2024年04月14日
    瀏覽(26)
  • chatglm2-6b模型在9n-triton中部署并集成至langchain實(shí)踐 | 京東云技術(shù)團(tuán)隊(duì)

    chatglm2-6b模型在9n-triton中部署并集成至langchain實(shí)踐 | 京東云技術(shù)團(tuán)隊(duì)

    近期, ChatGLM-6B 的第二代版本ChatGLM2-6B已經(jīng)正式發(fā)布,引入了如下新特性: ①. 基座模型升級(jí),性能更強(qiáng)大,在中文C-Eval榜單中,以51.7分位列第6; ②. 支持8K-32k的上下文; ③. 推理性能提升了42%; ④. 對(duì)學(xué)術(shù)研究完全開(kāi)放,允許申請(qǐng)商用授權(quán)。 目前大多數(shù)部署方案采用的是

    2024年02月12日
    瀏覽(25)
  • ChatGLM2-6B 部署

    ChatGLM2-6B 部署

    這是ChatGLM2-6B 部署的閱讀筆記,主要介紹了ChatGLM2-6B模型的部署和一些原理的簡(jiǎn)單解釋。 它是單卡開(kāi)源的對(duì)話模型。 充分的中英雙語(yǔ)預(yù)訓(xùn)練 較低的部署門檻 FP16半精度下,需要至少13G的顯存進(jìn)行推理,甚至可以進(jìn)一步降低到10G(INT8)和6G(INT4) 更長(zhǎng)的序列長(zhǎng)度 ChatGLM-6B 序列長(zhǎng)度達(dá)

    2024年02月09日
    瀏覽(27)
  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 開(kāi)源中英雙語(yǔ)對(duì)話模型

    【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 開(kāi)源中英雙語(yǔ)對(duì)話模型

    項(xiàng)目地址 chatglm2-6b 下載模型 創(chuàng)建測(cè)試項(xiàng)目 創(chuàng)建虛擬環(huán)境安裝依賴 完整的venv環(huán)境 main.py 執(zhí)行 python進(jìn)程cpu使用率100.3%持續(xù)了很長(zhǎng)時(shí)間,沒(méi)有啟用多線程?

    2024年01月20日
    瀏覽(25)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包