国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【AI】Langchain-Chatchat搭建本地知識庫-未完,先記錄踩的坑

這篇具有很好參考價(jià)值的文章主要介紹了【AI】Langchain-Chatchat搭建本地知識庫-未完,先記錄踩的坑。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

事先說一下,我本地的顯卡4070只有12G顯存,無法運(yùn)行本地知識庫,我把自己折騰的過程和遇到的坑先記錄一下吧,后續(xù)如果有算力的話就再跑一遍試試。后續(xù)來了:【AI】使用阿里云免費(fèi)服務(wù)器搭建Langchain-Chatchat本地知識庫
Langchain-Chatchat曾用名Langchain-ChatGLM,是智譜AI的本地知識庫項(xiàng)目,其官方介紹如下:??? 一種利用 langchain 思想實(shí)現(xiàn)的基于本地知識庫的問答應(yīng)用,目標(biāo)期望建立一套對中文場景與開源模型支持友好、可離線運(yùn)行的知識庫問答解決方案。
項(xiàng)目地址:https://github.com/chatchat-space/Langchain-Chatchat

之前有看過使用ChatGLM結(jié)合Langchain構(gòu)建本地知識庫的內(nèi)容,隨著ChatGLM3-6B模型的發(fā)布,我發(fā)現(xiàn)官方竟然也出了本地知識庫的項(xiàng)目,試想肯定還是官方對項(xiàng)目的了解最深入,所以還是適用一下吧。官方wiki上推薦是Linux系統(tǒng),但是由于我沒有Linux的環(huán)境,所以還是嘗試在Windows環(huán)境上跑一下吧。

1.環(huán)境搭建

wiki中環(huán)境的要求如下:
最低要求

該要求僅針對標(biāo)準(zhǔn)模式,輕量模式使用在線模型,不需要安裝torch等庫,也不需要顯卡即可運(yùn)行。

Python 版本: >= 3.8(很不穩(wěn)定), < 3.12
CUDA 版本: >= 12.1
推薦要求

開發(fā)者在以下環(huán)境下進(jìn)行代碼調(diào)試,在該環(huán)境下能夠避免最多環(huán)境問題。

Python 版本 == 3.11.7
CUDA 版本: == 12.1

根據(jù)上述要求,適用Anaconda創(chuàng)建虛擬環(huán)境,我這邊選擇的python版本是3.10

conda create -n chatchat python=3.10

然后去下載whl文件安裝cuda版本的torch、torchvision、torchaudio;下載地址:https://download.pytorch.org/whl/torch_stable.html,根據(jù)自己需求下載即可
【AI】Langchain-Chatchat搭建本地知識庫-未完,先記錄踩的坑,人工智能,人工智能,langchain
然后使用pip install直接安裝即可。

2.代碼準(zhǔn)備

可以去github上拉取代碼,也可以去官方文檔的分享里去下載懶人包,我比較懶,所以選擇了后者。
https://pan.baidu.com/s/1fHElFanrdK9Y-pTpeY_azg?pwd=glut

【AI】Langchain-Chatchat搭建本地知識庫-未完,先記錄踩的坑,人工智能,人工智能,langchain
解壓chatchat和model,兩者放在同級目錄下面。
進(jìn)入chatchat目錄下面,可以看到官方給出了快速體驗(yàn)的bat啟動文件,按照順序啟動1和2即可
【AI】Langchain-Chatchat搭建本地知識庫-未完,先記錄踩的坑,人工智能,人工智能,langchain

3.調(diào)試過程

懶人包中提供了虛擬環(huán)境等可供直接運(yùn)行,我們之前準(zhǔn)備的環(huán)境看樣子也用不上,事情本來應(yīng)該是很順利的,但是很多情況事與愿違。

3.1模型本地化加載

由于項(xiàng)目在啟動時(shí)需要聯(lián)網(wǎng)加載Embedding 模型 BAAI/bge-large-zh ;如果運(yùn)行環(huán)境不能魔法聯(lián)網(wǎng),就最好先去huggingface上把模型下載下來。
下載好之后,我把模型和ChatGLM3-6B放在一起
【AI】Langchain-Chatchat搭建本地知識庫-未完,先記錄踩的坑,人工智能,人工智能,langchain
然后需要去修改一下模型加載的路徑,這里可以參考chatglm的配置,配置在model_config.py文件中
【AI】Langchain-Chatchat搭建本地知識庫-未完,先記錄踩的坑,人工智能,人工智能,langchain
修改如下:
【AI】Langchain-Chatchat搭建本地知識庫-未完,先記錄踩的坑,人工智能,人工智能,langchain

3.2解決爆顯存問題

由于本地顯存限制,加載ChatGLM3-6B需要13G的顯存,直接運(yùn)行fp16的模型顯存直接爆掉了,所以我想著退而求其次,實(shí)施8Bit量化的模型能不能跑,啟動程序其實(shí)最后是運(yùn)行了python startup.py -a的啟動命令,所以先去startup.py中找一下有沒有配置8bit量化的地方。
【AI】Langchain-Chatchat搭建本地知識庫-未完,先記錄踩的坑,人工智能,人工智能,langchain
看樣子把這里改成True就好了,但是感覺直接在代碼中改有點(diǎn)不夠優(yōu)雅,于是去看看配置文件,發(fā)現(xiàn)在server_config.py中存在開啟的參數(shù),于是修改,然后運(yùn)行
【AI】Langchain-Chatchat搭建本地知識庫-未完,先記錄踩的坑,人工智能,人工智能,langchain

3.3解決webui不顯示的問題

解決了模型的問題之后,點(diǎn)擊第二個(gè)bat文件運(yùn)行,發(fā)現(xiàn)能夠正常啟動了,API文檔頁也可以直接打開了,但是重要的webui頁面卻怎么也打不開,于是查看日志,發(fā)現(xiàn)了問題,原來是運(yùn)行webui的環(huán)境變量出現(xiàn)了問題,導(dǎo)致啟動webui進(jìn)程的命令找不到python。于是還是去startup.py中找解決方法:
【AI】Langchain-Chatchat搭建本地知識庫-未完,先記錄踩的坑,人工智能,人工智能,langchain
這里用subprocess的方式運(yùn)行webui,又遇到知識盲點(diǎn)了,麻爪了,不知道在哪里設(shè)置python的路徑了。
不能耽誤到這里吧,然后我就想,反正程序里面也是單獨(dú)運(yùn)行的api和webui,我能不能開兩個(gè)窗口去分別運(yùn)行這兩個(gè)東西呢。
你別說,還真可以,官方wiki下是這樣描述一鍵啟動的
【AI】Langchain-Chatchat搭建本地知識庫-未完,先記錄踩的坑,人工智能,人工智能,langchain
那我就使用–all-api參數(shù)來運(yùn)行吧
由于沒有用懶人包中的虛擬環(huán)境,我們還需要將我們之前準(zhǔn)備的環(huán)境裝上依賴,這簡單,我們直接去pip install -r requirements.txt好了。
不過需要注意的是,為了在Windows環(huán)境安裝cuda版本的torch不出錯(cuò),我們使用whl文件安裝了torch相關(guān)的依賴,所以需要在requirements.txt中將這三個(gè)依賴注釋掉,以防安裝過程中沖突或又被不合時(shí)宜的版本覆蓋了。
然后就可以愉快的運(yùn)行api服務(wù)了

然后再使用streamlit運(yùn)行webui

streamlit run webui.py  --server.address 127.0.0.1 --server.port 5678 --theme.base light --theme.primaryColor #165dff --theme.secondaryBackgroundColor #f5f5f5" --theme.textColor #000000

事情變得順利了,webui界面出來了,測試對話也能夠正常使用了。
本來因?yàn)槎伎梢粤?,但是在?chuàng)建文檔知識庫的時(shí)候報(bào)錯(cuò)了,報(bào)錯(cuò)是數(shù)據(jù)類型不適合,盲猜因?yàn)閕nt8量化導(dǎo)致的模型參數(shù)值錯(cuò)誤,所以應(yīng)該是不能使用量化后的模型進(jìn)行embedding操作之類的。后續(xù)看看能不能再找個(gè)大顯存的環(huán)境測試一下。文章來源地址http://www.zghlxwxcb.cn/news/detail-764833.html

到了這里,關(guān)于【AI】Langchain-Chatchat搭建本地知識庫-未完,先記錄踩的坑的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(完結(jié)篇)

    從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(完結(jié)篇)

    相關(guān)文章: 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(一) https://blog.csdn.net/hya168/article/details/131460230 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二) https://blog.csdn.net/hya168/article/details/135870440 生成默認(rèn)配置文件 此命令

    2024年02月20日
    瀏覽(21)
  • LangChain-Chatchat 開源知識庫來了

    LangChain-Chatchat 開源知識庫來了

    LangChain-Chatchat 是基于 ChatGLM 等大語言模型與 LangChain 等應(yīng)用框架實(shí)現(xiàn),開源、可離線部署的 RAG 檢索增強(qiáng)生成大模型知識庫項(xiàng)目。最新版本為 v0.2.10,目前已收獲 26.7k Stars,非常不錯(cuò)的一個(gè)開源知識庫項(xiàng)目。 項(xiàng)目地址:https://github.com/chatchat-space/Langchain-Chatchat 顧名思義,LangC

    2024年04月17日
    瀏覽(18)
  • LLMs之RAG:LangChain-Chatchat(一款中文友好的全流程本地知識庫問答應(yīng)用)的簡介(支持 FastChat 接入的ChatGLM-2/LLaMA-2等多款主流LLMs+多款embe

    LLMs之RAG:LangChain-Chatchat(一款中文友好的全流程本地知識庫問答應(yīng)用)的簡介(支持 FastChat 接入的ChatGLM-2/LLaMA-2等多款主流LLMs+多款embe

    LLMs之RAG:LangChain-Chatchat(一款中文友好的全流程本地知識庫問答應(yīng)用)的簡介(支持?FastChat 接入的ChatGLM-2/LLaMA-2等多款主流LLMs+多款embedding模型m3e等+多種TextSplitter分詞器)、安裝(鏡像部署【AutoDL云平臺/Docker鏡像】,離線私有部署+支持RTX3090 ,支持FAISS/Milvus/PGVector向量庫, 基于

    2024年02月08日
    瀏覽(25)
  • LangChain-Chatchat學(xué)習(xí)資料-Windows開發(fā)部署

    LangChain-Chatchat學(xué)習(xí)資料-Windows開發(fā)部署

    1.LacnChain-Chatchat項(xiàng)目 本人使用的是Windows10專業(yè)版22H2版本,已經(jīng)安裝了Python3.10,CUDA11.8版本,miniconda3。 硬件采用聯(lián)想R9000P,AMD R7 5800H,16G內(nèi)存,RTX3060 6G。 默認(rèn)依賴包括基本運(yùn)行環(huán)境(FAISS向量庫)。如果要使用 milvus/pg_vector 等向量庫,請將 requirements.txt 中相應(yīng)依賴取消注釋再

    2024年02月11日
    瀏覽(18)
  • GPT實(shí)戰(zhàn)系列-簡單聊聊LangChain搭建本地知識庫準(zhǔn)備

    GPT實(shí)戰(zhàn)系列-簡單聊聊LangChain搭建本地知識庫準(zhǔn)備

    LangChain 是一個(gè)開發(fā)由語言模型驅(qū)動的應(yīng)用程序的框架,除了和應(yīng)用程序通過 API 調(diào)用, 還會: 數(shù)據(jù)感知 : 將語言模型連接到其他數(shù)據(jù)源 具有代理性質(zhì) : 允許語言模型與其環(huán)境交互 LLM大模型相關(guān)文章: GPT實(shí)戰(zhàn)系列-簡單聊聊LangChain GPT實(shí)戰(zhàn)系列-ChatGLM3本地部署CUDA11+1080Ti+顯卡

    2024年02月01日
    瀏覽(22)
  • (一)AI本地知識庫問答(可運(yùn)行):LangChain+Chroma向量數(shù)據(jù)庫+OpenAi大模型

    (一)AI本地知識庫問答(可運(yùn)行):LangChain+Chroma向量數(shù)據(jù)庫+OpenAi大模型

    只需要看config目錄下的config.py,data目錄下的txt知識庫文件,db向量數(shù)據(jù)庫文件在持久化部署后會自動生成,route下的app.py,scripts目錄下的Chroma向量庫持久化部署.py這幾個(gè)就可以,scripts目錄下的考勤問答.py和test目錄下都是單獨(dú)的自己測試的小代碼,可以不用關(guān)注 因?yàn)檫\(yùn)行需要

    2024年02月03日
    瀏覽(29)
  • 基于Llama2和LangChain構(gòu)建本地化定制化知識庫AI聊天機(jī)器人

    基于Llama2和LangChain構(gòu)建本地化定制化知識庫AI聊天機(jī)器人

    參考: 本項(xiàng)目?https://github.com/PromtEngineer/localGPT 模型?https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGML 云端知識庫項(xiàng)目:基于GPT-4和LangChain構(gòu)建云端定制化PDF知識庫AI聊天機(jī)器人_Entropy-Go的博客-CSDN博客? ????????相比OpenAI的LLM ChatGPT模型必須網(wǎng)絡(luò)連接并通過API key云端調(diào)用模型,擔(dān)心

    2024年02月08日
    瀏覽(33)
  • Langchain-Chatchat-Ubuntu服務(wù)器本地安裝部署筆記

    Langchain-Chatchat-Ubuntu服務(wù)器本地安裝部署筆記

    ?Langchain-Chatchat(原Langchain-ChatGLM)基于 Langchain 與 ChatGLM 等語言模型的本地知識庫問答 | Langchain-Chatchat (formerly langchain-ChatGLM), local knowledge based LLM (like ChatGLM) QA app with langchain。 ? ? ? ? 開源網(wǎng)址:https://github.com/chatchat-space/Langchain-Chatchat ?? ? ? ? 因?yàn)檫@是自己畢設(shè)項(xiàng)目所需

    2024年04月08日
    瀏覽(24)
  • 使用chatglm搭建本地知識庫AI_聞達(dá)

    使用chatglm搭建本地知識庫AI_聞達(dá)

    最近大火的chatgpt,老板說讓我看看能不能用自己的數(shù)據(jù),回答專業(yè)一些,所以做了一些調(diào)研,最近用這個(gè)倒是成功推理了自己的數(shù)據(jù),模型也開源了,之后有機(jī)會也訓(xùn)練一下自己的數(shù)據(jù)。 1.1雙擊打開anconda prompt創(chuàng)建虛擬環(huán)境 1.2下載pytorch(這里要根據(jù)自己的電腦版本下載)都

    2024年02月10日
    瀏覽(24)
  • 使用LangChain與ChatGLM實(shí)現(xiàn)本地知識庫(一)

    使用LangChain與ChatGLM實(shí)現(xiàn)本地知識庫(一)

    ??本篇主要內(nèi)容為介紹ChatGLM3的安裝使用,后續(xù)才會涉及到使用LangChain實(shí)現(xiàn)本地知識庫的內(nèi)容; ??ChatGLM為智譜與清華大學(xué)開源的一個(gè)大語言模型,支持多輪對話、內(nèi)容創(chuàng)作等,ChatGLM3-6B為ChatGLM3系列中門檻相對較低的一個(gè),本地部署提供兼容OpenAI的API; ??LangChain用于快

    2024年02月05日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包