国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

開源模型應用落地-chatglm3-6b模型小試-入門篇(三)

這篇具有很好參考價值的文章主要介紹了開源模型應用落地-chatglm3-6b模型小試-入門篇(三)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

????一、前言

? ? ?剛開始接觸AI時,您可能會感到困惑,因為面對眾多開源模型的選擇,不知道應該選擇哪個模型,也不知道如何調用最基本的模型。但是不用擔心,我將陪伴您一起逐步入門,解決這些問題。

? ? ?在信息時代,我們可以輕松地通過互聯(lián)網(wǎng)獲取大量的理論知識和概念。然而,僅僅掌握理論知識并不能真正幫助我們成長和進步。實踐是將理論知識轉化為實際技能和經(jīng)驗的關鍵。

? ? 本章將學習如何在低成本下,使用transformer設置chatglm3-6b模型參數(shù)/System Prompt/歷史對話

? ? qwen模型教程入口:

開源模型應用落地-qwen模型小試-入門篇(三)

? ??baichuan模型教程入口:

開源模型應用落地-baichuan2模型小試-入門篇(三)


二、術語

2.1. CentOS

? ? CentOS是一種基于Linux的自由開源操作系統(tǒng)。它是從Red Hat Enterprise Linux(RHEL)衍生出來的,因此與RHEL具有高度的兼容性。CentOS的目標是提供一個穩(wěn)定、可靠且免費的企業(yè)級操作系統(tǒng),適用于服務器和桌面環(huán)境。

2.2. GPU

? ? 是Graphics Processing Unit(圖形處理單元)的縮寫。它是一種專門設計用于處理圖形和圖像計算的處理器。與傳統(tǒng)的中央處理器(CPU)相比,GPU具有更高的并行計算能力,適用于處理大規(guī)模數(shù)據(jù)并進行復雜的計算任務。


三、前置條件

3.1. linux操作系統(tǒng)

3.2.?下載chatglm3-6b模型

從huggingface下載:https://huggingface.co/THUDM/chatglm3-6b/tree/main

開源模型應用落地-chatglm3-6b模型小試-入門篇(三),# 開源大語言模型-chatglm模型小試,深度學習,自然語言處理,語言模型?

從魔搭下載:魔搭社區(qū)匯聚各領域最先進的機器學習模型,提供模型探索體驗、推理、訓練、部署和應用的一站式服務。https://www.modelscope.cn/models/ZhipuAI/chatglm3-6b/fileshttps://www.modelscope.cn/models/ZhipuAI/chatglm3-6b/files開源模型應用落地-chatglm3-6b模型小試-入門篇(三),# 開源大語言模型-chatglm模型小試,深度學習,自然語言處理,語言模型?

?3.3. 創(chuàng)建虛擬環(huán)境&安裝依賴

conda create --name chatglm3 python=3.10
conda activate chatglm3
pip install protobuf transformers==4.30.2 cpm_kernels torch>=2.0 sentencepiece accelerate
pip install modelscope


四、技術實現(xiàn)

4.1. 使用transformers方式

# -*-  coding = utf-8 -*-
from transformers import AutoTokenizer, AutoModelForCausalLM
import time
import traceback

modelPath = "/model/chatglm3-6b"

def chat(model, tokenizer, message, history, system):
    messages = []
    if system is not None:
        messages.append({"role": "system", "content": system})

    if history is not None:
        for his in history:
            user,assistant = his
            messages.append({"role": "user", "content": user})
            messages.append({"role": "assistant", 'metadata': '', "content": assistant})

    try:
        for response in model.stream_chat(tokenizer,message, messages,  max_length=512, top_p=0.9, temperature=0.45, repetition_penalty=1.1,do_sample=True):
            _answer,_history = response
            yield _answer

    except Exception:
        traceback.print_exc()

def loadTokenizer():
    tokenizer = AutoTokenizer.from_pretrained(modelPath, use_fast=False, trust_remote_code=True)
    return tokenizer


def loadModel():
    model = AutoModelForCausalLM.from_pretrained(modelPath, device_map="auto",  trust_remote_code=True).cuda() 
    model = model.eval()
    # print(model)
    return model


if __name__ == '__main__':
    model = loadModel()
    tokenizer = loadTokenizer()

    start_time = time.time()

    message = "我家有什么好玩?"
    history = [('hi,你好', '你好!有什么我可以幫助你的嗎?'), ('我家在廣州,很好玩哦', '廣州是一個美麗的城市,有很多有趣的地方可以去。'), ]
    system = "你是一個人工智能助手,擅長解決人類的問題"

    response = chat(model, tokenizer, message,history,system)
    for answer in response:
        print(answer)

    end_time = time.time()
    print("執(zhí)行耗時: {:.2f}秒".format(end_time - start_time))

調用結果:

開源模型應用落地-chatglm3-6b模型小試-入門篇(三),# 開源大語言模型-chatglm模型小試,深度學習,自然語言處理,語言模型

開源模型應用落地-chatglm3-6b模型小試-入門篇(三),# 開源大語言模型-chatglm模型小試,深度學習,自然語言處理,語言模型

4.2. 使用modelscope方式

把AutoModelForCausalLM, AutoTokenizer改為從modelscope導入即可

開源模型應用落地-chatglm3-6b模型小試-入門篇(三),# 開源大語言模型-chatglm模型小試,深度學習,自然語言處理,語言模型

調用輸出

開源模型應用落地-chatglm3-6b模型小試-入門篇(三),# 開源大語言模型-chatglm模型小試,深度學習,自然語言處理,語言模型

注意:需要安裝modelscope庫


五、附帶說明

5.1. 上下文長度限制

chatglm3-6b的Seq Length只有8k,需要更長文本理解能力的,需要使用對應的模型

開源模型應用落地-chatglm3-6b模型小試-入門篇(三),# 開源大語言模型-chatglm模型小試,深度學習,自然語言處理,語言模型文章來源地址http://www.zghlxwxcb.cn/news/detail-848565.html

到了這里,關于開源模型應用落地-chatglm3-6b模型小試-入門篇(三)的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 開源模型應用落地-baichuan2模型小試-入門篇(三)

    ? ? ? ? 相信您已經(jīng)學會了如何在Windows環(huán)境下以最低成本、無需GPU的情況下運行baichuan2大模型?,F(xiàn)在,讓我們進一步探索如何在Linux環(huán)境下,并且擁有GPU的情況下運行baichuan2大模型,以提升性能和效率。 ? ? CentOS是一種基于Linux的自由開源操作系統(tǒng)。它是從Red Hat Enterprise Li

    2024年04月17日
    瀏覽(38)
  • 開源模型應用落地-qwen2模型小試-入門篇(六)

    ? ? 經(jīng)過前五篇“qwen模型小試”文章的學習,我們已經(jīng)熟練掌握qwen大模型的使用。然而,就在前幾天開源社區(qū)又發(fā)布了qwen1.5版本,它是qwen2模型的測試版本。在基于transformers的使用方式上有較大的調整,現(xiàn)在,我們趕緊跟上腳步,去體驗一下新版本模型的推理質量。 ? ?

    2024年03月17日
    瀏覽(29)
  • 開源模型應用落地-qwen模型小試-Zero/One/Few Shot-進階篇(九)

    ? ? Zero-Shot、One-Shot和Few-Shot是機器學習領域中重要的概念,特別是在自然語言處理和計算機視覺領域。通過Zero-Shot、One-Shot和Few-Shot學習,模型可以更好地處理未知的情況和新任務,減少對大量標注數(shù)據(jù)的依賴,提高模型的適應性和靈活性。這對于推動人工智能在現(xiàn)實世界中

    2024年04月10日
    瀏覽(24)
  • 關于大模型ChatGLM3-6B在CPU下運行

    關于大模型ChatGLM3-6B在CPU下運行

    ????????最近在調研市場上語言大模型,為公司的產(chǎn)品上虛擬人的推出做準備。各廠提供語言模型都很豐富,使用上也很方便,有API接口可以調用。但唯一的不足,對于提供給百萬用戶使用的產(chǎn)品,相比價格都比較貴。所以對ChatGLM3-6B的使用做了深入了解,特別只有CPU沒有

    2024年02月04日
    瀏覽(23)
  • mac M系列芯片安裝chatGLM3-6b模型

    mac M系列芯片安裝chatGLM3-6b模型

    下載miniconda,并安裝 創(chuàng)建名為chatglm3的虛擬環(huán)境,python版本為3.10.2 激活環(huán)境(后續(xù)要在這個環(huán)境安裝pytorch及依賴包) 1 下載地址,git地址:https://github.com/THUDM/ChatGLM3 2 進入代碼中,安裝依賴包 推薦使用方式3下載,可以下載任意開源大模型,且速度飛快,沒有墻限制 https:/

    2024年02月02日
    瀏覽(59)
  • CP03大語言模型ChatGLM3-6B特性代碼解讀(1)

    對話模式、工具模式、代碼解釋器模式例程閱讀理解。 ChatGLM3-6B已經(jīng)進行了中文場景的訓練,可以直接運用于中文場景。本次學習的示例,提供了三種模式。包括: Chat: 對話模式,在此模式下可以與模型進行對話; Tool: 工具模式,模型除了對話外,還可以通過工具進行其他

    2024年02月22日
    瀏覽(23)
  • 解鎖大語言模型LLM對話潛力:ChatGLM3-6B的多輪對話實踐與深入探索

    隨著人工智能技術的飛速發(fā)展,多輪對話系統(tǒng)已成為自然語言處理領域的研究熱點。多輪對話要求模型不僅能理解用戶的當前輸入,還需結合對話歷史進行連貫回復,這對模型的上下文理解和生成能力提出了更高要求。ChatGLM3-6B作為一種先進的大型語言模型,在多輪對話任務

    2024年02月22日
    瀏覽(24)
  • LLM大語言模型(三):使用ChatGLM3-6B的函數(shù)調用功能前先學會Python的裝飾器

    LLM大語言模型(三):使用ChatGLM3-6B的函數(shù)調用功能前先學會Python的裝飾器

    目錄 ChatGLM3-6B的函數(shù)調用模式示例 本地啟動ChatGLM3-6B工具模式 如何在ChatGLM3-6B里新增一個自定義函數(shù)呢? get_weather基于Python的裝飾器實現(xiàn) 函數(shù)注解@register_tool 現(xiàn)在我們來自定義一個kuakuawo()函數(shù) ChatGLM3-6B目前有三種使用模式: 對話模式 工具模式(也就是本文要介紹的函數(shù)調用

    2024年01月25日
    瀏覽(30)
  • 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二)

    從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二)

    接上文:從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫 Langchain-chatchat 0.2.10 推薦使用python3.11.7,通過下面命令進行python環(huán)境創(chuàng)建。 如下圖 安裝完畢后,通過以下命令激活python虛擬環(huán)境 如下圖,shell命令行前面會出現(xiàn)(langchain)這個虛擬環(huán)境名。 轉到

    2024年03月21日
    瀏覽(32)
  • 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(完結篇)

    從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(完結篇)

    相關文章: 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(一) https://blog.csdn.net/hya168/article/details/131460230 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二) https://blog.csdn.net/hya168/article/details/135870440 生成默認配置文件 此命令

    2024年02月20日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包