国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

ChatGLM3-6B 的調用參數(shù)說明,chat 與stream_chat 接口函數(shù)的參數(shù)說明

這篇具有很好參考價值的文章主要介紹了ChatGLM3-6B 的調用參數(shù)說明,chat 與stream_chat 接口函數(shù)的參數(shù)說明。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

ChatGLM3-6B 是一個語言大模型,最近在評估這個模型,但發(fā)現(xiàn)它的文檔有限,只能從demo代碼中猜測調用的參數(shù)的含義,準確度是有限的;于是,通過查看源代碼來研究,目前整理筆記如下:

ChatGLM3-6B 的調用接口有兩個,一個是chat接口,一個是stream_chat接口

接口函數(shù)的實現(xiàn)位于代碼 chatglm3-6b/blob/main/modeling_chatglm.py中

一、chat接口

chat接口的原型如下:

def chat(self, tokenizer, query: str, history: List[Dict] = None, role: str = "user",
             max_length: int = 8192, num_beams=1, do_sample=True, top_p=0.8, temperature=0.8, logits_processor=None,
             **kwargs):

參數(shù)說明如下:

參數(shù)名 參數(shù)含義 默認值
tokenizer 用于處理輸入和輸出文本的tokenizer對象。由前面的?AutoTokenizer.from_pretrained 調用返回的對象
query str 類型,用戶輸入的任何文本
history List[Dict],可選參數(shù);對話歷史,每一項都是一個字典,包含角色('role')和內容('content')。 None
role str, 可選參數(shù);輸入文本的角色,可以是'user'或者'assistant'。 user
max_length int, 可選;生成文本的最大長度。 8192
num_beams int, 可選;Beam搜索的寬度,如果值大于1,則使用Beam搜索 1
do_sample bool, 可選;是否從預測分布中進行采樣,如果為True,則使用采樣策略生成回復。 True
top_p float, 可選;用于控制生成回復的多樣性 0.8
temperature float, 可選;控制生成文本的隨機性的參數(shù) 0.8
logits_processor LogitsProcessorList, 可選;用于處理和修改生成步驟中的logits的對象 None
**kwargs 其他傳遞給模型生成函數(shù)的參數(shù)

返回值:

response (str): 模型的響應文本。
history (List[Dict]): 更新后的對話歷史。

二、stream_chat 接口

流式聊天函數(shù),接受一段文本查詢,返回模型的響應。這個函數(shù)返回的是一個生成器,可以在流式處理中使用。?

該接口函數(shù)的原型定義如下:

def stream_chat(self, tokenizer, query: str, history: List[Dict] = None, role: str = "user",
                    past_key_values=None,max_length: int = 8192, do_sample=True, top_p=0.8, temperature=0.8,
                    logits_processor=None, return_past_key_values=False, **kwargs):

參數(shù)說明如下:

?參數(shù)名 參數(shù)含義 默認值
tokenizer 用于處理輸入和輸出文本的tokenizer對象。由前面的?AutoTokenizer.from_pretrained 調用返回的對象
query str,必須參數(shù);用戶輸入的任何聊天文本。
history List[Dict], 可選;對話歷史,每一項都是一個字典,包含角色('role')和內容('content')。 None
role str, 可選: 輸入文本的角色,可以是'user'或者'assistant'。 user
past_key_values List[Tensor], 可選;用于transformer模型的過去的鍵值對 None
max_length int, 可選: 生成文本的最大長度. 8192
do_sample bool, 可選;是否從預測分布中進行采樣 True
top_p float, 可選: 用于控制生成回復的多樣性。 0.8
temperature float, 可選;控制生成文本的隨機性的參數(shù) 0.8
logits_processor LogitsProcessorList, 可選;用于處理和修改生成步驟中的logits的對象。 None
return_past_key_values bool, 可選): 是否返回過去的鍵值對,用于下一步的生成。 False
**kwargs 其他傳遞給模型生成函數(shù)的參數(shù)。

返回值:

response (str): 模型的響應文本。
history (List[Dict]): 更新后的對話歷史。
past_key_values (List[Tensor], 可選): 如果return_past_key_values為True,返回用于下一步生成的過去的鍵值對。文章來源地址http://www.zghlxwxcb.cn/news/detail-765023.html

到了這里,關于ChatGLM3-6B 的調用參數(shù)說明,chat 與stream_chat 接口函數(shù)的參數(shù)說明的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 關于大模型ChatGLM3-6B在CPU下運行

    關于大模型ChatGLM3-6B在CPU下運行

    ????????最近在調研市場上語言大模型,為公司的產品上虛擬人的推出做準備。各廠提供語言模型都很豐富,使用上也很方便,有API接口可以調用。但唯一的不足,對于提供給百萬用戶使用的產品,相比價格都比較貴。所以對ChatGLM3-6B的使用做了深入了解,特別只有CPU沒有

    2024年02月04日
    瀏覽(23)
  • mac M系列芯片安裝chatGLM3-6b模型

    mac M系列芯片安裝chatGLM3-6b模型

    下載miniconda,并安裝 創(chuàng)建名為chatglm3的虛擬環(huán)境,python版本為3.10.2 激活環(huán)境(后續(xù)要在這個環(huán)境安裝pytorch及依賴包) 1 下載地址,git地址:https://github.com/THUDM/ChatGLM3 2 進入代碼中,安裝依賴包 推薦使用方式3下載,可以下載任意開源大模型,且速度飛快,沒有墻限制 https:/

    2024年02月02日
    瀏覽(60)
  • 開源模型應用落地-chatglm3-6b-批量推理-入門篇(四)

    開源模型應用落地-chatglm3-6b-批量推理-入門篇(四)

    ? ? ?剛開始接觸AI時,您可能會感到困惑,因為面對眾多開源模型的選擇,不知道應該選擇哪個模型,也不知道如何調用最基本的模型。但是不用擔心,我將陪伴您一起逐步入門,解決這些問題。 ? ? ?在信息時代,我們可以輕松地通過互聯(lián)網獲取大量的理論知識和概念。然

    2024年04月17日
    瀏覽(32)
  • 開源模型應用落地-chatglm3-6b模型小試-入門篇(三)

    開源模型應用落地-chatglm3-6b模型小試-入門篇(三)

    ? ? ?剛開始接觸AI時,您可能會感到困惑,因為面對眾多開源模型的選擇,不知道應該選擇哪個模型,也不知道如何調用最基本的模型。但是不用擔心,我將陪伴您一起逐步入門,解決這些問題。 ? ? ?在信息時代,我們可以輕松地通過互聯(lián)網獲取大量的理論知識和概念。然

    2024年04月12日
    瀏覽(40)
  • 開源模型應用落地-chatglm3-6b模型小試-入門篇(一)

    開源模型應用落地-chatglm3-6b模型小試-入門篇(一)

    ? ? ?剛開始接觸AI時,您可能會感到困惑,因為面對眾多開源模型的選擇,不知道應該選擇哪個模型,也不知道如何調用最基本的模型。但是不用擔心,我將陪伴您一起逐步入門,解決這些問題。 ? ? ?在信息時代,我們可以輕松地通過互聯(lián)網獲取大量的理論知識和概念。然

    2024年04月10日
    瀏覽(31)
  • CP03大語言模型ChatGLM3-6B特性代碼解讀(1)

    對話模式、工具模式、代碼解釋器模式例程閱讀理解。 ChatGLM3-6B已經進行了中文場景的訓練,可以直接運用于中文場景。本次學習的示例,提供了三種模式。包括: Chat: 對話模式,在此模式下可以與模型進行對話; Tool: 工具模式,模型除了對話外,還可以通過工具進行其他

    2024年02月22日
    瀏覽(23)
  • LLaMA-Factory微調(sft)ChatGLM3-6B保姆教程

    LLaMA-Factory微調(sft)ChatGLM3-6B保姆教程

    下載LLaMA-Factory 下載ChatGLM3-6B 下載ChatGLM3 windows下載CUDA ToolKit 12.1 (本人是在windows進行訓練的,顯卡GTX 1660 Ti) CUDA安裝完畢后,通過指令 nvidia-smi 查看 1、選擇下載目錄:E:llm-trainLLaMA-Factory,并打開 2、創(chuàng)建新的python環(huán)境,這里使用conda創(chuàng)建一個python空環(huán)境,選擇python3.10 參考

    2024年04月13日
    瀏覽(33)
  • 開源模型應用落地-chatglm3-6b-gradio-入門篇(七)

    開源模型應用落地-chatglm3-6b-gradio-入門篇(七)

    ? ? 早前的文章,我們都是通過輸入命令的方式來使用Chatglm3-6b模型?,F(xiàn)在,我們可以通過使用gradio,通過一個界面與模型進行交互。這樣做可以減少重復加載模型和修改代碼的麻煩, 讓我們更方便地體驗模型的效果。 ? ? 是一個用于構建交互式界面的Python庫。它使得在Py

    2024年04月26日
    瀏覽(68)
  • 昇騰910b部署Chatglm3-6b進行流式輸出【pytorch框架】NPU推理

    昇騰910b部署Chatglm3-6b進行流式輸出【pytorch框架】NPU推理

    配套軟件包Ascend-cann-toolkit和Ascend-cann-nnae 適配昇騰的Pytorch 適配昇騰的Torchvision Adapter 下載ChatGLM3代碼 下載chatglm3-6b模型,或在modelscope里下載 每個人的服務器都不一樣,在ChatGLM3/issues中別人只需要修改指定驅動,但是我的不行 刪除模型文件包中的model.safetensors.index.json,否則加

    2024年01月21日
    瀏覽(42)
  • AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知識庫

    AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知識庫

    手把手教你搭建本地知識庫問答AI機器人 LangChain-Chatchat:基于LangChain和ChatGLM2-6B構建本地離線私有化知識庫 在家庭私有云上部署體驗語言模型chatglm3-6b,打造私人助理 手把手教大家在本地運行ChatGLM3-6B大模型(一) 自從去年GPT模型火爆以來,降低了很多個人和企業(yè)進入人工智

    2024年02月20日
    瀏覽(30)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包