国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

使用LangChain與ChatGLM實現(xiàn)本地知識庫(一)

這篇具有很好參考價值的文章主要介紹了使用LangChain與ChatGLM實現(xiàn)本地知識庫(一)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

??本篇主要內(nèi)容為介紹ChatGLM3的安裝使用,后續(xù)才會涉及到使用LangChain實現(xiàn)本地知識庫的內(nèi)容;
??ChatGLM為智譜與清華大學(xué)開源的一個大語言模型,支持多輪對話、內(nèi)容創(chuàng)作等,ChatGLM3-6B為ChatGLM3系列中門檻相對較低的一個,本地部署提供兼容OpenAI的API;
??LangChain用于快速開發(fā)基于大語言模型應(yīng)用程序的框架,提供了一整套工具、組件、接口等使得程序與大語言模型輕松交互組件快速組合、集成;如在模型上外掛本地知識庫等;

使用LangChain與ChatGLM實現(xiàn)本地知識庫(一)

ChatGLM3安裝

??這里將安裝使用int4量化版本的ChatGLM3-6B推理程序ChatGLM.cpp項目地址為:
??https://github.com/li-plus/chatglm.cpp 這里有詳細(xì)的安裝流程,安裝完成并下載好預(yù)訓(xùn)練模型后即可在Python代碼通過ChatGLM.cpp推理程序調(diào)用預(yù)訓(xùn)練模型;

示例如下:

import chatglm_cpp

pipeline = chatglm_cpp.Pipeline("/mnt/d/software/dev/gpt/chatglm.cpp/chatglm3-ggml.bin")
p = pipeline.chat([chatglm_cpp.ChatMessage(role="user", content="海南在哪里")])
print(p.content)


API Server模式:

安裝組件:pip install 'chatglm-cpp[api]'

啟動基于LangChain Api的接口服務(wù)程序:

MODEL=./chatglm2-ggml.bin uvicorn chatglm_cpp.langchain_api:app --host 127.0.0.1 --port 8000

curl http請求調(diào)用:

curl http://127.0.0.1:8000 -H 'Content-Type: application/json' -d '{"prompt": "你好"}'

LangChain調(diào)用:


from langchain.llms import ChatGLM
llm = ChatGLM(endpoint_url="http://127.0.0.1:8000")
llm.predict("你好")
'你好!我是人工智能助手,很高興見到你,歡迎問我任何問題。'


結(jié)合gradio使用:

import gradio as gr
import chatglm_cpp

def chat(quetion,history):
    pipeline = chatglm_cpp.Pipeline("/mnt/d/software/dev/gpt/chatglm.cpp/chatglm3-ggml.bin")
    p = pipeline.chat([chatglm_cpp.ChatMessage(role="user", content=quetion)])
    return p.content

demo = gr.ChatInterface(chat)
demo.launch(inbrowser=True)


使用LangChain與ChatGLM實現(xiàn)本地知識庫(一)

??雖然只是60億參數(shù)規(guī)模的模型,還只是int4量化版的,但從輸出內(nèi)容看算得上一個玩具;在與LangChain結(jié)合后可玩性將會提高;文章來源地址http://www.zghlxwxcb.cn/news/detail-747400.html

到了這里,關(guān)于使用LangChain與ChatGLM實現(xiàn)本地知識庫(一)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • AIGC:【LLM(四)】——LangChain+ChatGLM:本地知識庫問答方案

    AIGC:【LLM(四)】——LangChain+ChatGLM:本地知識庫問答方案

    LangChain+ChatGLM項目(https://github.com/chatchat-space/langchain-ChatGLM)實現(xiàn)原理如下圖所示 (與基于文檔的問答 大同小異,過程包括:1 加載文檔 - 2 讀取文檔 - 3/4文檔分割 - 5/6 文本向量化 - 8/9 問句向量化 - 10 在文檔向量中匹配出與問句向量最相似的top k個 - 11/12/13 匹配出的文本作為上下

    2024年02月13日
    瀏覽(89)
  • LLMs之RAG:LangChain-ChatGLM-Webui(一款基于本地知識庫(各種文本文檔)的自動問答的GUI界面實現(xiàn))的簡介、安裝、使用方法之詳細(xì)攻略

    LLMs之RAG:LangChain-ChatGLM-Webui(一款基于本地知識庫(各種文本文檔)的自動問答的GUI界面實現(xiàn))的簡介、安裝、使用方法之詳細(xì)攻略 目錄 LangChain-ChatGLM-Webui的簡介 1、支持的模型 LangChain-ChatGLM-Webui的安裝 1、安裝 T1、直接安裝? 環(huán)境準(zhǔn)備 啟動程序 T2、Docker安裝 (1)、Docker 基礎(chǔ)環(huán)境運

    2024年02月04日
    瀏覽(16)
  • AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知識庫

    AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知識庫

    手把手教你搭建本地知識庫問答AI機(jī)器人 LangChain-Chatchat:基于LangChain和ChatGLM2-6B構(gòu)建本地離線私有化知識庫 在家庭私有云上部署體驗語言模型chatglm3-6b,打造私人助理 手把手教大家在本地運行ChatGLM3-6B大模型(一) 自從去年GPT模型火爆以來,降低了很多個人和企業(yè)進(jìn)入人工智

    2024年02月20日
    瀏覽(30)
  • 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二)

    從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二)

    接上文:從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫 Langchain-chatchat 0.2.10 推薦使用python3.11.7,通過下面命令進(jìn)行python環(huán)境創(chuàng)建。 如下圖 安裝完畢后,通過以下命令激活python虛擬環(huán)境 如下圖,shell命令行前面會出現(xiàn)(langchain)這個虛擬環(huán)境名。 轉(zhuǎn)到

    2024年03月21日
    瀏覽(32)
  • 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(完結(jié)篇)

    從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(完結(jié)篇)

    相關(guān)文章: 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(一) https://blog.csdn.net/hya168/article/details/131460230 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二) https://blog.csdn.net/hya168/article/details/135870440 生成默認(rèn)配置文件 此命令

    2024年02月20日
    瀏覽(21)
  • 【ChatGLM_02】LangChain知識庫+Lora微調(diào)chatglm2-6b模型+提示詞Prompt的使用原則

    【ChatGLM_02】LangChain知識庫+Lora微調(diào)chatglm2-6b模型+提示詞Prompt的使用原則

    運行l(wèi)angchain-ChatGLM-master下面的webui.py文件 (1) 配置知識庫 新建知識庫 向知識庫當(dāng)中添加文件 支持上傳的數(shù)據(jù)格式:word、pdf、excel、csv、txt、文件夾等。但是此處我試了一下 (2) 文檔數(shù)據(jù)測試 word文檔測試: (3) 知識庫測試模式 知識庫測試只會返回輸入內(nèi)容在當(dāng)前知識庫當(dāng)中的

    2024年02月14日
    瀏覽(24)
  • 使用chatglm搭建本地知識庫AI_聞達(dá)

    使用chatglm搭建本地知識庫AI_聞達(dá)

    最近大火的chatgpt,老板說讓我看看能不能用自己的數(shù)據(jù),回答專業(yè)一些,所以做了一些調(diào)研,最近用這個倒是成功推理了自己的數(shù)據(jù),模型也開源了,之后有機(jī)會也訓(xùn)練一下自己的數(shù)據(jù)。 1.1雙擊打開anconda prompt創(chuàng)建虛擬環(huán)境 1.2下載pytorch(這里要根據(jù)自己的電腦版本下載)都

    2024年02月10日
    瀏覽(23)
  • LangChain + ChatGLM2-6B 搭建個人專屬知識庫

    LangChain + ChatGLM2-6B 搭建個人專屬知識庫

    之前教過大家利用 langchain + ChatGLM-6B 實現(xiàn)個人專屬知識庫,非常簡單易上手。最近,智譜 AI 研發(fā)團(tuán)隊又推出了 ChatGLM 系列的新模型 ChatGLM2-6B,是開源中英雙語對話模型 ChatGLM-6B 的第二代版本,性能更強(qiáng)悍。 樹先生之所以現(xiàn)在才更新 ChatGLM2-6B 知識庫教程,是想等模型本身再多

    2024年02月16日
    瀏覽(24)
  • Langchain-Chatchat大語言模型本地知識庫的踩坑、部署、使用

    Langchain-Chatchat大語言模型本地知識庫的踩坑、部署、使用

    Langchain-Chatchat是一個基于ChatGLM大語言模型與Langchain應(yīng)用框架實現(xiàn),開源、可離線部署的檢索增強(qiáng)生成(RAG)大模型的本地知識庫問答應(yīng)用項目。 GitHub: https://github.com/chatchat-space/Langchain-Chatchat 本項目實現(xiàn)原理如下圖所示,過程包括加載文件 - 讀取文本 - 文本分割 - 文本向量化

    2024年02月04日
    瀏覽(49)
  • 【AI】使用阿里云免費服務(wù)器搭建Langchain-Chatchat本地知識庫

    【AI】使用阿里云免費服務(wù)器搭建Langchain-Chatchat本地知識庫

    書接上文,由于家境貧寒的原因,導(dǎo)致我本地的GPU資源無法滿足搭建Langchain-Chatchat本地知識庫的需求,具體可以看一下這篇文章,于是我只能另辟蹊徑,考慮一下能不能白嫖一下云服務(wù)器資源,于是去找網(wǎng)上找,您還別說,還真有,具體的領(lǐng)取方法可以查看我的這篇文章:【

    2024年02月03日
    瀏覽(40)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包