国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

開源模型應(yīng)用落地-chatglm3-6b模型小試-入門篇(一)

這篇具有很好參考價(jià)值的文章主要介紹了開源模型應(yīng)用落地-chatglm3-6b模型小試-入門篇(一)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

??一、前言

? ? ?剛開始接觸AI時(shí),您可能會感到困惑,因?yàn)槊鎸Ρ姸嚅_源模型的選擇,不知道應(yīng)該選擇哪個模型,也不知道如何調(diào)用最基本的模型。但是不用擔(dān)心,我將陪伴您一起逐步入門,解決這些問題。

? ? ?在信息時(shí)代,我們可以輕松地通過互聯(lián)網(wǎng)獲取大量的理論知識和概念。然而,僅僅掌握理論知識并不能真正幫助我們成長和進(jìn)步。實(shí)踐是將理論知識轉(zhuǎn)化為實(shí)際技能和經(jīng)驗(yàn)的關(guān)鍵。

? ??我將引導(dǎo)您以最低的成本運(yùn)行ChatGLM3-6b模型,讓您體驗(yàn)到它帶來的美妙特性。

? ? qwen模型教程入口:

開源模型應(yīng)用落地-qwen模型小試-入門篇(一)_qwen文本分類-CSDN博客

? ??baichuan模型教程入口:

開源模型應(yīng)用落地-baichuan模型小試-入門篇(一)-CSDN博客


二、術(shù)語

2.1.?智譜AI

? ? 是由清華大學(xué)計(jì)算機(jī)系技術(shù)成果轉(zhuǎn)化而來的公司,致力于打造新一代認(rèn)知智能通用模型。公司合作研發(fā)了雙語千億級超大規(guī)模預(yù)訓(xùn)練模型GLM-130B,并構(gòu)建了高精度通用知識圖譜,形成數(shù)據(jù)與知識雙輪驅(qū)動的認(rèn)知引擎,基于此模型打造了ChatGLM(chatglm.cn)。此外,智譜AI還推出了認(rèn)知大模型平臺Bigmodel.ai,包括CodeGeeX和CogView等產(chǎn)品,提供智能API服務(wù),鏈接物理世界的億級用戶、賦能元宇宙數(shù)字人、成為具身機(jī)器人的基座,賦予機(jī)器像人一樣“思考”的能力。

chatglm3_6b 128k,# 開源大語言模型-chatglm模型小試,深度學(xué)習(xí),自然語言處理,語言模型

2.2. ChatGLM3

? ??是智譜AI和清華大學(xué) KEG 實(shí)驗(yàn)室聯(lián)合發(fā)布的對話預(yù)訓(xùn)練模型。ChatGLM3-6B 是 ChatGLM3 系列中的開源模型,在保留了前兩代模型對話流暢、部署門檻低等眾多優(yōu)秀特性的基礎(chǔ)上,ChatGLM3-6B 引入了如下特性:

  1. 更強(qiáng)大的基礎(chǔ)模型:?ChatGLM3-6B 的基礎(chǔ)模型 ChatGLM3-6B-Base 采用了更多樣的訓(xùn)練數(shù)據(jù)、更充分的訓(xùn)練步數(shù)和更合理的訓(xùn)練策略。在語義、數(shù)學(xué)、推理、代碼、知識等不同角度的數(shù)據(jù)集上測評顯示,*?ChatGLM3-6B-Base 具有在 10B 以下的基礎(chǔ)模型中最強(qiáng)的性能*。
  2. 更完整的功能支持:?ChatGLM3-6B 采用了全新設(shè)計(jì)的?Prompt 格式?,除正常的多輪對話外。同時(shí)原生支持工具調(diào)用(Function Call)、代碼執(zhí)行(Code Interpreter)和 Agent 任務(wù)等復(fù)雜場景。
  3. 更全面的開源序列:?除了對話模型?ChatGLM3-6B?外,還開源了基礎(chǔ)模型?ChatGLM3-6B-Base?、長文本對話模型?ChatGLM3-6B-32K?和進(jìn)一步強(qiáng)化了對于長文本理解能力的?ChatGLM3-6B-128K。以上所有權(quán)重對學(xué)術(shù)研究完全開放?,在填寫?問卷?進(jìn)行登記后亦允許免費(fèi)商業(yè)使用。

三、前置條件

3.1. windows操作系統(tǒng)

3.2.?下載chatglm3-6b模型

從huggingface下載:https://huggingface.co/THUDM/chatglm3-6b/tree/main

chatglm3_6b 128k,# 開源大語言模型-chatglm模型小試,深度學(xué)習(xí),自然語言處理,語言模型

從魔搭下載:魔搭社區(qū)匯聚各領(lǐng)域最先進(jìn)的機(jī)器學(xué)習(xí)模型,提供模型探索體驗(yàn)、推理、訓(xùn)練、部署和應(yīng)用的一站式服務(wù)。https://www.modelscope.cn/models/ZhipuAI/chatglm3-6b/fileshttps://www.modelscope.cn/models/ZhipuAI/chatglm3-6b/fileschatglm3_6b 128k,# 開源大語言模型-chatglm模型小試,深度學(xué)習(xí),自然語言處理,語言模型

3.3. 創(chuàng)建虛擬環(huán)境&安裝依賴

conda create --name chatglm3 python=3.10
conda activate chatglm3
pip install protobuf transformers==4.30.2 cpm_kernels torch>=2.0 sentencepiece accelerate

四、技術(shù)實(shí)現(xiàn)

4.1. 本地推理

#Tokenizer加載

def loadTokenizer():
    tokenizer = AutoTokenizer.from_pretrained(modelPath, use_fast=False, trust_remote_code=True)
    return tokenizer

#Model加載

def loadModel():
    model = AutoModelForCausalLM.from_pretrained(modelPath, device_map="auto",  trust_remote_code=True).eval()
    print(model)
    return model

#推理執(zhí)行結(jié)果如下:

def chat(model, tokenizer, message):
    try:
        for response in model.stream_chat(tokenizer, message):
            _answer,_history = response
            yield _answer

    except Exception:
        traceback.print_exc()

4.2. 完整代碼

# -*-  coding = utf-8 -*-
from transformers import AutoTokenizer, AutoModelForCausalLM
import time
import traceback

modelPath = "E:\\model\\chatglm3-6b"

def chat(model, tokenizer, message):
    try:
        for response in model.stream_chat(tokenizer, message):
            _answer,_history = response
            yield _answer

    except Exception:
        traceback.print_exc()


def loadTokenizer():
    tokenizer = AutoTokenizer.from_pretrained(modelPath, use_fast=False, trust_remote_code=True)
    return tokenizer


def loadModel():
    model = AutoModelForCausalLM.from_pretrained(modelPath, device_map="auto",  trust_remote_code=True).eval()
    #print(model)
    return model


if __name__ == '__main__':
    model = loadModel()
    tokenizer = loadTokenizer()

    message = "你是誰?"

    response = chat(model, tokenizer, message)
    for answer in response:
        print(answer)

運(yùn)行結(jié)果:

chatglm3_6b 128k,# 開源大語言模型-chatglm模型小試,深度學(xué)習(xí),自然語言處理,語言模型


五、附帶說明

5.1.ChatGLM3-6B vs Qwen1.5-7B-Chat

1) 推理實(shí)現(xiàn)的代碼差異

ChatGLM3:

? ? for response in?model.stream_chat(tokenizer,message, history)

? ? ? ?......

QWen1.5:

? ? generation_kwargs = dict(inputs=model_inputs.input_ids, streamer=streamer)

? ? thread = Thread(target=model.generate, kwargs=generation_kwargs)

? ? thread.start()

? ? ? ? for response?in streamer:
? ? ? ? ? ? ......

2) 對話格式差異

ChatGLM3:

<|system|>
You are a helpful assistant.
<|user|>
我家在廣州,很好玩哦
<|assistant|>
廣州是一個美麗的城市,有很多有趣的地方可以去。

QWen1.5:

<|im_start|>system
You are a helpful assistant.<|im_end|>
<|im_start|>user
我家在廣州,很好玩哦<|im_end|>
<|im_start|>assistant
廣州是一個美麗的城市,有很多有趣的地方可以去。<|im_end|>

3) 模型參數(shù)文章來源地址http://www.zghlxwxcb.cn/news/detail-845980.html

ChatGLM3-6B QWen1.5-7B-Chat
n_layers 28 32
n_heads 32 32
vocab size 65,024 151,851
sequence length 8192 8192

到了這里,關(guān)于開源模型應(yīng)用落地-chatglm3-6b模型小試-入門篇(一)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 開源模型應(yīng)用落地-baichuan2模型小試-入門篇(三)

    ? ? ? ? 相信您已經(jīng)學(xué)會了如何在Windows環(huán)境下以最低成本、無需GPU的情況下運(yùn)行baichuan2大模型?,F(xiàn)在,讓我們進(jìn)一步探索如何在Linux環(huán)境下,并且擁有GPU的情況下運(yùn)行baichuan2大模型,以提升性能和效率。 ? ? CentOS是一種基于Linux的自由開源操作系統(tǒng)。它是從Red Hat Enterprise Li

    2024年04月17日
    瀏覽(38)
  • 開源模型應(yīng)用落地-qwen2模型小試-入門篇(六)

    ? ? 經(jīng)過前五篇“qwen模型小試”文章的學(xué)習(xí),我們已經(jīng)熟練掌握qwen大模型的使用。然而,就在前幾天開源社區(qū)又發(fā)布了qwen1.5版本,它是qwen2模型的測試版本。在基于transformers的使用方式上有較大的調(diào)整,現(xiàn)在,我們趕緊跟上腳步,去體驗(yàn)一下新版本模型的推理質(zhì)量。 ? ?

    2024年03月17日
    瀏覽(29)
  • 開源模型應(yīng)用落地-qwen模型小試-Zero/One/Few Shot-進(jìn)階篇(九)

    ? ? Zero-Shot、One-Shot和Few-Shot是機(jī)器學(xué)習(xí)領(lǐng)域中重要的概念,特別是在自然語言處理和計(jì)算機(jī)視覺領(lǐng)域。通過Zero-Shot、One-Shot和Few-Shot學(xué)習(xí),模型可以更好地處理未知的情況和新任務(wù),減少對大量標(biāo)注數(shù)據(jù)的依賴,提高模型的適應(yīng)性和靈活性。這對于推動人工智能在現(xiàn)實(shí)世界中

    2024年04月10日
    瀏覽(24)
  • 關(guān)于大模型ChatGLM3-6B在CPU下運(yùn)行

    關(guān)于大模型ChatGLM3-6B在CPU下運(yùn)行

    ????????最近在調(diào)研市場上語言大模型,為公司的產(chǎn)品上虛擬人的推出做準(zhǔn)備。各廠提供語言模型都很豐富,使用上也很方便,有API接口可以調(diào)用。但唯一的不足,對于提供給百萬用戶使用的產(chǎn)品,相比價(jià)格都比較貴。所以對ChatGLM3-6B的使用做了深入了解,特別只有CPU沒有

    2024年02月04日
    瀏覽(23)
  • mac M系列芯片安裝chatGLM3-6b模型

    mac M系列芯片安裝chatGLM3-6b模型

    下載miniconda,并安裝 創(chuàng)建名為chatglm3的虛擬環(huán)境,python版本為3.10.2 激活環(huán)境(后續(xù)要在這個環(huán)境安裝pytorch及依賴包) 1 下載地址,git地址:https://github.com/THUDM/ChatGLM3 2 進(jìn)入代碼中,安裝依賴包 推薦使用方式3下載,可以下載任意開源大模型,且速度飛快,沒有墻限制 https:/

    2024年02月02日
    瀏覽(59)
  • CP03大語言模型ChatGLM3-6B特性代碼解讀(1)

    對話模式、工具模式、代碼解釋器模式例程閱讀理解。 ChatGLM3-6B已經(jīng)進(jìn)行了中文場景的訓(xùn)練,可以直接運(yùn)用于中文場景。本次學(xué)習(xí)的示例,提供了三種模式。包括: Chat: 對話模式,在此模式下可以與模型進(jìn)行對話; Tool: 工具模式,模型除了對話外,還可以通過工具進(jìn)行其他

    2024年02月22日
    瀏覽(23)
  • 解鎖大語言模型LLM對話潛力:ChatGLM3-6B的多輪對話實(shí)踐與深入探索

    隨著人工智能技術(shù)的飛速發(fā)展,多輪對話系統(tǒng)已成為自然語言處理領(lǐng)域的研究熱點(diǎn)。多輪對話要求模型不僅能理解用戶的當(dāng)前輸入,還需結(jié)合對話歷史進(jìn)行連貫回復(fù),這對模型的上下文理解和生成能力提出了更高要求。ChatGLM3-6B作為一種先進(jìn)的大型語言模型,在多輪對話任務(wù)

    2024年02月22日
    瀏覽(24)
  • LLM大語言模型(三):使用ChatGLM3-6B的函數(shù)調(diào)用功能前先學(xué)會Python的裝飾器

    LLM大語言模型(三):使用ChatGLM3-6B的函數(shù)調(diào)用功能前先學(xué)會Python的裝飾器

    目錄 ChatGLM3-6B的函數(shù)調(diào)用模式示例 本地啟動ChatGLM3-6B工具模式 如何在ChatGLM3-6B里新增一個自定義函數(shù)呢? get_weather基于Python的裝飾器實(shí)現(xiàn) 函數(shù)注解@register_tool 現(xiàn)在我們來自定義一個kuakuawo()函數(shù) ChatGLM3-6B目前有三種使用模式: 對話模式 工具模式(也就是本文要介紹的函數(shù)調(diào)用

    2024年01月25日
    瀏覽(30)
  • 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二)

    從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二)

    接上文:從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫 Langchain-chatchat 0.2.10 推薦使用python3.11.7,通過下面命令進(jìn)行python環(huán)境創(chuàng)建。 如下圖 安裝完畢后,通過以下命令激活python虛擬環(huán)境 如下圖,shell命令行前面會出現(xiàn)(langchain)這個虛擬環(huán)境名。 轉(zhuǎn)到

    2024年03月21日
    瀏覽(32)
  • 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(完結(jié)篇)

    從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(完結(jié)篇)

    相關(guān)文章: 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(一) https://blog.csdn.net/hya168/article/details/131460230 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二) https://blog.csdn.net/hya168/article/details/135870440 生成默認(rèn)配置文件 此命令

    2024年02月20日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包