国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

LangChain(3)對話緩存方式 Conversational Memory

這篇具有很好參考價(jià)值的文章主要介紹了LangChain(3)對話緩存方式 Conversational Memory。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

LLM 默認(rèn)是無狀態(tài)的,即詢問當(dāng)前的問題與上下文無關(guān),當(dāng)我們需要將多輪對話信息給到LLM 時(shí),就需要使用緩存Memory。緩存方式有多種。文章來源地址http://www.zghlxwxcb.cn/news/detail-567772.html

from langchain import OpenAI
from langchain.chains import ConversationChain

# first initialize the large language model
llm = OpenAI(
		temperature=0,
		openai_api_key="OPENAI_API_KEY",
		model_name="text-davinci-003" # 也可用gpt-3.5-turbo
		)

# now initialize the conversation chain 默認(rèn)無緩存
conversation = ConversationChain(llm=llm)

# 方式1 ConversationBufferMemory: 會(huì)將之前所有對話都作為輸入送到LLM中,受模型接受token數(shù)量的限制
from langchain.chains.conversation.memory import ConversationBufferMemory
conversation_buf = ConversationChain(
		llm=llm,
		memory=ConversationBufferMemory()
		)

# 方式2 ConversationSummaryMemory:將之前對話總結(jié)Summary后,加上新的詢問query輸入到LLM中
from langchain.chains.conversation.memory import ConversationSummaryMemory
conversation = ConversationChain(
		llm=llm,
		memory=ConversationSummaryMemory(llm=llm)
		)

# 方式3 ConversationBufferWindowMemory:將最近k輪對話,加上新的詢問query輸入到LLM中
from langchain.chains.conversation.memory import ConversationBufferWindowMemory
conversation = ConversationChain(
llm=llm,
memory=ConversationBufferWindowMemory(k=1)
)

# 方式4 ConversationSummaryBufferMemory:將很久之前的對話Summary,最近的對話保存全部送入LLM中
conversation_sum_bufw = ConversationChain(
llm=llm, memory=ConversationSummaryBufferMemory(
llm=llm,
max_token_limit=650
)

# 其它 Memory 類型
# ConversationKnowledgeGraphMemory
# ConversationEntityMemory

到了這里,關(guān)于LangChain(3)對話緩存方式 Conversational Memory的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • LangChain手記 Memory

    LangChain手記 Memory

    整理并翻譯自DeepLearning.AI×LangChain的官方課程:Memory(源碼可見) 使用open ai的API調(diào)用GPT都是單次調(diào)用,所以模型并不記得之前的對話,多輪對話的實(shí)現(xiàn)其實(shí)是將前面輪次的對話過程保留,在下次對話時(shí)作為輸入的message數(shù)組的一部分,再將新一輪對話的提問也放入message數(shù)組,

    2024年02月12日
    瀏覽(20)
  • Langchain 的 Conversation buffer memory

    本筆記本展示了如何使用 ConversationBufferMemory 。該存儲(chǔ)器允許存儲(chǔ)消息,然后將消息提取到變量中。 我們可以首先將其提取為字符串。 示例代碼, 輸出結(jié)果, 我們還可以獲取歷史記錄作為消息列表(如果您將其與聊天模型一起使用,這非常有用)。 示例代碼, 輸出結(jié)果,

    2024年02月16日
    瀏覽(33)
  • Langchain 的 Conversation summary memory

    現(xiàn)在讓我們看一下使用稍微復(fù)雜的內(nèi)存類型 - ConversationSummaryMemory 。這種類型的記憶會(huì)隨著時(shí)間的推移創(chuàng)建對話的摘要。這對于隨著時(shí)間的推移壓縮對話中的信息非常有用。對話摘要內(nèi)存對發(fā)生的對話進(jìn)行總結(jié),并將當(dāng)前摘要存儲(chǔ)在內(nèi)存中。然后可以使用該內(nèi)存將迄今為止的

    2024年02月15日
    瀏覽(20)
  • Langchain 的 Conversation buffer window memory

    ConversationBufferWindowMemory 保存一段時(shí)間內(nèi)對話交互的列表。它僅使用最后 K 個(gè)交互。這對于保持最近交互的滑動(dòng)窗口非常有用,因此緩沖區(qū)不會(huì)變得太大。 我們首先來探討一下這種存儲(chǔ)器的基本功能。 示例代碼, 輸出結(jié)果, 我們還可以獲取歷史記錄作為消息列表(如果您將

    2024年02月15日
    瀏覽(15)
  • 自然語言處理從入門到應(yīng)用——LangChain:記憶(Memory)-[將記憶添加到LangChain組件中]

    分類目錄:《大模型從入門到應(yīng)用》總目錄 LangChain系列文章: 基礎(chǔ)知識(shí) 快速入門 安裝與環(huán)境配置 鏈(Chains)、代理(Agent:)和記憶(Memory) 快速開發(fā)聊天模型 模型(Models) 基礎(chǔ)知識(shí) 大型語言模型(LLMs) 基礎(chǔ)知識(shí) LLM的異步API、自定義LLM包裝器、虛假LLM和人類輸入LLM(

    2024年02月12日
    瀏覽(61)
  • 自然語言處理從入門到應(yīng)用——LangChain:記憶(Memory)-[聊天消息記錄]

    分類目錄:《大模型從入門到應(yīng)用》總目錄 LangChain系列文章: 基礎(chǔ)知識(shí) 快速入門 安裝與環(huán)境配置 鏈(Chains)、代理(Agent:)和記憶(Memory) 快速開發(fā)聊天模型 模型(Models) 基礎(chǔ)知識(shí) 大型語言模型(LLMs) 基礎(chǔ)知識(shí) LLM的異步API、自定義LLM包裝器、虛假LLM和人類輸入LLM(

    2024年02月12日
    瀏覽(56)
  • 自然語言處理從入門到應(yīng)用——LangChain:記憶(Memory)-[基礎(chǔ)知識(shí)]

    分類目錄:《大模型從入門到應(yīng)用》總目錄 LangChain系列文章: 基礎(chǔ)知識(shí) 快速入門 安裝與環(huán)境配置 鏈(Chains)、代理(Agent:)和記憶(Memory) 快速開發(fā)聊天模型 模型(Models) 基礎(chǔ)知識(shí) 大型語言模型(LLMs) 基礎(chǔ)知識(shí) LLM的異步API、自定義LLM包裝器、虛假LLM和人類輸入LLM(

    2024年02月14日
    瀏覽(61)
  • 自然語言處理從入門到應(yīng)用——LangChain:記憶(Memory)-[記憶的類型Ⅲ]

    分類目錄:《大模型從入門到應(yīng)用》總目錄 LangChain系列文章: 基礎(chǔ)知識(shí) 快速入門 安裝與環(huán)境配置 鏈(Chains)、代理(Agent:)和記憶(Memory) 快速開發(fā)聊天模型 模型(Models) 基礎(chǔ)知識(shí) 大型語言模型(LLMs) 基礎(chǔ)知識(shí) LLM的異步API、自定義LLM包裝器、虛假LLM和人類輸入LLM(

    2024年02月13日
    瀏覽(56)
  • 自然語言處理從入門到應(yīng)用——LangChain:記憶(Memory)-[記憶的類型Ⅰ]

    分類目錄:《大模型從入門到應(yīng)用》總目錄 LangChain系列文章: 基礎(chǔ)知識(shí) 快速入門 安裝與環(huán)境配置 鏈(Chains)、代理(Agent:)和記憶(Memory) 快速開發(fā)聊天模型 模型(Models) 基礎(chǔ)知識(shí) 大型語言模型(LLMs) 基礎(chǔ)知識(shí) LLM的異步API、自定義LLM包裝器、虛假LLM和人類輸入LLM(

    2024年02月13日
    瀏覽(52)
  • 自然語言處理從入門到應(yīng)用——LangChain:記憶(Memory)-[記憶的類型Ⅱ]

    分類目錄:《大模型從入門到應(yīng)用》總目錄 LangChain系列文章: 基礎(chǔ)知識(shí) 快速入門 安裝與環(huán)境配置 鏈(Chains)、代理(Agent:)和記憶(Memory) 快速開發(fā)聊天模型 模型(Models) 基礎(chǔ)知識(shí) 大型語言模型(LLMs) 基礎(chǔ)知識(shí) LLM的異步API、自定義LLM包裝器、虛假LLM和人類輸入LLM(

    2024年02月13日
    瀏覽(54)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包