国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知識庫

這篇具有很好參考價值的文章主要介紹了AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知識庫。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

參考

手把手教你搭建本地知識庫問答AI機(jī)器人
LangChain-Chatchat:基于LangChain和ChatGLM2-6B構(gòu)建本地離線私有化知識庫
在家庭私有云上部署體驗語言模型chatglm3-6b,打造私人助理
手把手教大家在本地運行ChatGLM3-6B大模型(一)

概述

自從去年GPT模型火爆以來,降低了很多個人和企業(yè)進(jìn)入人工智能領(lǐng)域的門檻,對于大模型尤其是開源的大模型國內(nèi)應(yīng)該比較受關(guān)注和期待,畢竟高額的成本也能將不少人阻擋在門外,其次,大家都希望在產(chǎn)品中集成LLM的能力,結(jié)合業(yè)務(wù)來落地智能化應(yīng)用,提升產(chǎn)品的競爭力,最直接的應(yīng)用就是構(gòu)建知識庫。

下面匯總了一下之前介紹的有關(guān)構(gòu)建知識庫相關(guān)的文章和視頻,包含了開源和閉源多種不同的解決方案,從使用情況來看,因為都是開源產(chǎn)品,所以在架構(gòu)和功能完整性上可能都不夠全面,因為一直在持續(xù)的迭代過程。

如果是站在一個中小企業(yè)的角度,去選型一款比較符合企業(yè)構(gòu)建本地知識庫需求的產(chǎn)品來評估,從以下介紹的開源產(chǎn)品目前的實現(xiàn)效果和未來規(guī)劃目標(biāo)來看,個人覺得Quivr從設(shè)計上來講更加符合應(yīng)用需求,前提是增加企業(yè)已有文檔庫、數(shù)據(jù)庫納入知識庫的能力,擴(kuò)展Danswer提高的功能,完善并豐富對于開源或者閉源模型的支持(目前暫時支持較弱)尤其是對于中文支持不錯的國產(chǎn)模型比如ChatGLM2等,另外一種方案就是今天介紹的LangChain-Chatchat剛好可以與Quivr互補(bǔ),其對于模型的支持很豐富,但對于業(yè)務(wù)端的屬性支持較弱,只支持單個用戶單個知識庫,不能建立多個知識庫通過權(quán)限來隔離。

部署安裝

環(huán)境準(zhǔn)備

我使用的硬件和模型信息:

顯卡:一塊英偉達(dá)的A6000

LLM:開源的chatglm3-6b

向量模型:開源的jina-embedding-l-en-v1

向量數(shù)據(jù)庫:開源的milvus

原理和流程圖

langchain-chatchat chatglm3,人工智能,langchain

一鍵啟動

一鍵啟動聊天機(jī)器人
安裝完成,輸入以下命令啟動

$ python startup.py -a

看到下面畫面后,表示正常啟動了
langchain-chatchat chatglm3,人工智能,langchain

啟動WebAPI 服務(wù)

在線調(diào)用API服務(wù)的情況下,直接執(zhí)執(zhí)行 server/api.py 腳本啟動 API 服務(wù);

python server/api.py

啟動 API 服務(wù)后,可訪問 localhost:7861 或 {API 所在服務(wù)器 IP}:7861 FastAPI 自動生成的 docs 進(jìn)行接口查看與測試。

FastAPI docs 界面
langchain-chatchat chatglm3,人工智能,langchain

啟動WebUI服務(wù)

在瀏覽器輸入聊天機(jī)器人地址:http://127.0.0.1:8561
langchain-chatchat chatglm3,人工智能,langchain

Docker部署

如果想快速部署 LangChain-Chatchat 產(chǎn)品來體驗,可以選擇Docker一鍵部署的方式,比較簡單,只需要先安裝Docker 容器,在Unbuntu環(huán)境中如何安裝 Docker & Docker Compose,可以參考文章 《Quivr 基于GPT和開源LLMs構(gòu)建本地知識庫 (更新篇)》中的3.2節(jié)。這里不過多贅述。 Windows安裝Docker更簡單。

Docker鏡像使用的版本一般會稍微滯后一些,如果想快速體驗最新的版本按前面開發(fā)模式部署會更合適一點。

LangChain-Chatchat項目使用的 Docker 鏡像地址是:

http://registry.cn-beijing.aliyuncs.com/chatchat/chatchat:0.2.0

docker run -d --gpus all -p 80:8501 registry.cn-beijing.aliyuncs.com/chatchat/chatchat:0.2.0
  • 該版本鏡像大小 33.9GB,使用 v0.2.0,以 nvidia/cuda:12.1.1-cudnn8-devel-ubuntu22.04 為基礎(chǔ)鏡像
  • 該版本內(nèi)置一個 embedding 模型:m3e-large,內(nèi)置 chatglm2-6b-32k
  • 該版本目標(biāo)為方便一鍵部署使用,請確保您已經(jīng)在Linux發(fā)行版上安裝了NVIDIA驅(qū)動程序
  • 請注意,您不需要在主機(jī)系統(tǒng)上安裝CUDA工具包,但需要安裝 NVIDIA Driver 以及 NVIDIA Container Toolkit,請參考安裝指南
  • 首次拉取和啟動均需要一定時間,首次啟動時請參照下圖使用 docker logs -f 查看日志
  • 如遇到啟動過程卡在 Waiting… 步驟,建議使用 docker exec -it bash 進(jìn)入 /logs/ 目錄查看對應(yīng)階段日志

知識庫管理

切換到知識庫管理后,可以查看和刪除已創(chuàng)建知識庫、新增知識庫,也可以對知識庫進(jìn)行文件增減。
langchain-chatchat chatglm3,人工智能,langchain

新建知識庫:點擊“新建知識庫”,輸入知識庫名稱和簡介,選擇向量數(shù)據(jù)庫和模型,再點擊新建即可。

langchain-chatchat chatglm3,人工智能,langchain

上傳文件到知識庫:選擇已創(chuàng)建知識庫,選擇上傳文件,點擊“添加文件到知識庫”

langchain-chatchat chatglm3,人工智能,langchain

創(chuàng)建好知識庫后,可以切換菜單到“對話”,選擇對話模式為“知識庫問答”,并選擇要對話的知識庫,即可開啟和特定知識庫聊天。

常見問題

本地知識庫怎么微調(diào)?回答不準(zhǔn)確

知識庫不用微調(diào),不準(zhǔn)確需要分析定位原因,是數(shù)據(jù)本身問題還是ai問題,ai層面可以考慮增加問題改寫步驟(看我前兩天分享),換更好的大模型,向量切分方面的優(yōu)化等文章來源地址http://www.zghlxwxcb.cn/news/detail-828400.html

到了這里,關(guān)于AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知識庫的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • LLMs之RAG:LangChain-Chatchat(一款中文友好的全流程本地知識庫問答應(yīng)用)的簡介(支持 FastChat 接入的ChatGLM-2/LLaMA-2等多款主流LLMs+多款embe

    LLMs之RAG:LangChain-Chatchat(一款中文友好的全流程本地知識庫問答應(yīng)用)的簡介(支持 FastChat 接入的ChatGLM-2/LLaMA-2等多款主流LLMs+多款embe

    LLMs之RAG:LangChain-Chatchat(一款中文友好的全流程本地知識庫問答應(yīng)用)的簡介(支持?FastChat 接入的ChatGLM-2/LLaMA-2等多款主流LLMs+多款embedding模型m3e等+多種TextSplitter分詞器)、安裝(鏡像部署【AutoDL云平臺/Docker鏡像】,離線私有部署+支持RTX3090 ,支持FAISS/Milvus/PGVector向量庫, 基于

    2024年02月08日
    瀏覽(25)
  • LangChain-Chatchat 開源知識庫來了

    LangChain-Chatchat 開源知識庫來了

    LangChain-Chatchat 是基于 ChatGLM 等大語言模型與 LangChain 等應(yīng)用框架實現(xiàn),開源、可離線部署的 RAG 檢索增強(qiáng)生成大模型知識庫項目。最新版本為 v0.2.10,目前已收獲 26.7k Stars,非常不錯的一個開源知識庫項目。 項目地址:https://github.com/chatchat-space/Langchain-Chatchat 顧名思義,LangC

    2024年04月17日
    瀏覽(18)
  • LangChain-Chatchat學(xué)習(xí)資料-Windows開發(fā)部署

    LangChain-Chatchat學(xué)習(xí)資料-Windows開發(fā)部署

    1.LacnChain-Chatchat項目 本人使用的是Windows10專業(yè)版22H2版本,已經(jīng)安裝了Python3.10,CUDA11.8版本,miniconda3。 硬件采用聯(lián)想R9000P,AMD R7 5800H,16G內(nèi)存,RTX3060 6G。 默認(rèn)依賴包括基本運行環(huán)境(FAISS向量庫)。如果要使用 milvus/pg_vector 等向量庫,請將 requirements.txt 中相應(yīng)依賴取消注釋再

    2024年02月11日
    瀏覽(17)
  • Langchain-Chatchat大語言模型本地知識庫的踩坑、部署、使用

    Langchain-Chatchat大語言模型本地知識庫的踩坑、部署、使用

    Langchain-Chatchat是一個基于ChatGLM大語言模型與Langchain應(yīng)用框架實現(xiàn),開源、可離線部署的檢索增強(qiáng)生成(RAG)大模型的本地知識庫問答應(yīng)用項目。 GitHub: https://github.com/chatchat-space/Langchain-Chatchat 本項目實現(xiàn)原理如下圖所示,過程包括加載文件 - 讀取文本 - 文本分割 - 文本向量化

    2024年02月04日
    瀏覽(49)
  • 離線AI聊天清華大模型(ChatGLM3)本地搭建

    離線AI聊天清華大模型(ChatGLM3)本地搭建

    在特定的情況下,要保證信息安全的同時還能享受到AIGC大模型帶來的樂趣和功能,那么,離線部署就能幫助到你,最起碼,它是一個真正可用的方案。 大模型本身清華的 (ChatGLM3),為的是對中文支持友好,另外就是我也很看好它,畢竟一直在優(yōu)化自己的模型,提升模型的質(zhì)量

    2024年02月02日
    瀏覽(26)
  • 離線AI聊天清華大模型(ChatGLM3)本地搭建指南

    隨著人工智能技術(shù)的飛速發(fā)展,聊天機(jī)器人成為了一個熱門的研究領(lǐng)域。清華大學(xué)研發(fā)的ChatGLM3模型,作為其中的佼佼者,為開發(fā)者提供了強(qiáng)大的自然語言處理能力。本文將指導(dǎo)您如何在本地搭建ChatGLM3模型,實現(xiàn)離線AI聊天功能。 一、前置準(zhǔn)備 在開始搭建之前,您需要準(zhǔn)備

    2024年02月19日
    瀏覽(23)
  • 部署一個本地的聊天機(jī)器人-基于ChatGLM3

    部署一個本地的聊天機(jī)器人-基于ChatGLM3

    理論上來說 8G及以上顯存的英偉達(dá)GPU 筆者的設(shè)備 RTX 4060Ti (16G顯存) Archlinux Python 3.10.10 ChatGLM3 代碼版本 33953b119e7 ChatGLM3 是智譜AI幾周前才開源的模型, 6B大小的話只是個人用的話算是完全免費的. 這個相比之前的2感覺是prompt優(yōu)化了一些(不過也復(fù)雜了一些), 可以直接用來讓機(jī)器人

    2024年02月05日
    瀏覽(23)
  • 使用 Sealos 將 ChatGLM3 接入 FastGPT,打造完全私有化 AI 客服

    使用 Sealos 將 ChatGLM3 接入 FastGPT,打造完全私有化 AI 客服

    FastGPT 是一款 專為客服問答場景而定制的 開箱即用的 AI 知識庫問答系統(tǒng)。該系統(tǒng)具備可視化工作流功能,允許用戶靈活地設(shè)計復(fù)雜的問答流程,幾乎能滿足各種客服需求。 在國內(nèi)市場環(huán)境下,離線部署對于企業(yè)客戶尤為重要。由于數(shù)據(jù)安全和隱私保護(hù)的考慮,企業(yè)通常不愿

    2024年02月06日
    瀏覽(21)
  • AI大模型探索之路-應(yīng)用篇16:GLM大模型-ChatGLM3 API開發(fā)實踐

    AI大模型探索之路-應(yīng)用篇16:GLM大模型-ChatGLM3 API開發(fā)實踐

    目錄 一、ChatGLM3-6B模型API調(diào)用 1. 導(dǎo)入相關(guān)的庫 2. 加載tokenizer 3. 加載預(yù)訓(xùn)練模型 4. 實例化模型 5.調(diào)用模型并獲取結(jié)果 二、OpenAI風(fēng)格的代碼調(diào)用 1.?Openai?api?啟動 2. 使用curl命令測試返回 3. 使用Python發(fā)送POST請求測試返回 4. 采用GLM提供的chat對話方式 5.?Embedding處理 三、Functio

    2024年04月23日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包