国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

LangChain-Chatchat學(xué)習(xí)資料-Windows開發(fā)部署

這篇具有很好參考價值的文章主要介紹了LangChain-Chatchat學(xué)習(xí)資料-Windows開發(fā)部署。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

在windows10下的安裝部署

參考資料

1.LacnChain-Chatchat項目

基礎(chǔ)環(huán)境準(zhǔn)備

本人使用的是Windows10專業(yè)版22H2版本,已經(jīng)安裝了Python3.10,CUDA11.8版本,miniconda3。
硬件采用聯(lián)想R9000P,AMD R7 5800H,16G內(nèi)存,RTX3060 6G。

安裝依賴

# 使用conda安裝激活環(huán)境
conda create -n Langchain-Chatchat python=3.10
conda activate Langchain-Chatchat
# 拉取倉庫
git clone https://github.com/chatchat-space/Langchain-Chatchat.git
# 進(jìn)入目錄
cd Langchain-Chatchat
# 安裝全部依賴
pip install -r requirements.txt

默認(rèn)依賴包括基本運行環(huán)境(FAISS向量庫)。如果要使用 milvus/pg_vector 等向量庫,請將 requirements.txt 中相應(yīng)依賴取消注釋再安裝。

此項目分為LLM服務(wù),API服務(wù)和WebUI服務(wù),可單獨根據(jù)運行需求安裝依賴包。

如果只需運行 LLM服務(wù)和API服務(wù),可執(zhí)行:

pip install -r requirements_api.txt

如果只需運行 WebUI服務(wù),可執(zhí)行:

pip install -r requirements_webui.txt

注:使用 langchain.document_loaders.UnstructuredFileLoader 進(jìn)行 .docx 等格式非結(jié)構(gòu)化文件接入時,可能需要依據(jù)文檔進(jìn)行其他依賴包的安裝,請參考 langchain 文檔。

下載模型

Langchain-Chatchat支持的開源 LLM 與 Embedding 模型,如果使用在線LLM服務(wù),如OpenAI的API,則請直接查看下一節(jié)。

如果需要本地或離線LLM服務(wù),則需要下載模型,通常開源 LLM 與 Embedding 模型可以從 HuggingFace 下載。

因為我的顯卡為RTX3060,只有6G的顯存,所以我使用的 LLM 模型 THUDM/chatglm2-6b-int4 與 Embedding 模型 moka-ai/m3e-base。
下載模型需要先安裝Git LFS,然后運行

git clone https://huggingface.co/THUDM/chatglm2-6b-int4
git clone https://huggingface.co/moka-ai/m3e-base

如果你的網(wǎng)絡(luò)不好,下載很慢,chatglm2-6b相關(guān)模型,推薦以下的方式
1.僅從Huggingface上下載模型實現(xiàn),不下載LFS模型文件

# 只獲取倉庫本身,而不獲取任何 LFS 對象
GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/chatglm2-6b-int4

2.從清華云盤下載模型參數(shù)文件,放到本地chatglm2-6b倉庫下
LangChain-Chatchat學(xué)習(xí)資料-Windows開發(fā)部署

修改配置項

修改模型相關(guān)參數(shù)配置文件

復(fù)制一份模型相關(guān)參數(shù)配置模板文件 configs/model_config.py.example,并重命名為 model_config.py

  • 修改本地LLM模型存儲路徑。
    如果使用本地LLM模型,請確認(rèn)已下載至本地的 LLM 模型本地存儲路徑寫在 llm_model_dict 對應(yīng)模型的 local_model_path 屬性中,如:
llm_model_dict={
    "chatglm2-6b-int4": {
        "local_model_path": "D:\\Langchain-Chatchat\\chatglm2-6b-int4",  # "THUDM/chatglm2-6b-int4",
        "api_base_url": "http://localhost:8888/v1",  # "URL需要與運行fastchat服務(wù)端的server_config.FSCHAT_OPENAI_API一致
        "api_key": "EMPTY"
    },
}

默認(rèn)模板中沒有提供llm_model_dict中,沒有chatglm2-6b-int4模型,需要自己添加。

  • 修改在線LLM服務(wù)接口相關(guān)參數(shù)
    如果使用在線LLM服務(wù),類OpenAi的API,需在llm_model_dict的gpt-3.5-turbo模型,修改對應(yīng)的API地址和環(huán)境變量中的KEY,或新增對應(yīng)的模型對象。
llm_model_dict={
    "gpt-3.5-turbo": {
        "local_model_path": "gpt-3.5-turbo",
        "api_base_url": "https://api.openai.com/v1",
        "api_key": os.environ.get("OPENAI_API_KEY")
    },
}
  • 修改使用的LLM模型名稱
    根據(jù)上述新增或修改的模型名稱,修改LLM_MODEL為使用的模型名稱
# LLM 名稱
LLM_MODEL = "chatglm2-6b-int4"
  • 修改embedding模型存儲路徑
    請確認(rèn)已下載至本地的 Embedding 模型本地存儲路徑寫在 embedding_model_dict 對應(yīng)模型屬性中,如:
embedding_model_dict = {
    "m3e-base": "D:\\Langchain-Chatchat\\m3e-base",
}
  • 其他修改項,可根據(jù)配置文件中的注釋,自行進(jìn)行修改。

修改服務(wù)相關(guān)參數(shù)配置文件

復(fù)制服務(wù)相關(guān)參數(shù)配置模板文件 configs/server_config.py.example,并重命名為 server_config.py。

  • 修改服務(wù)綁定的IP和端口
    根據(jù)實際情況,修改DEFAULT_BIND_HOST屬性,改為需要綁定的服務(wù)IP
# 各服務(wù)器默認(rèn)綁定host
DEFAULT_BIND_HOST = "10.0.21.161"

知識庫初始化

如果您是第一次運行本項目,知識庫尚未建立,或者配置文件中的知識庫類型、Embedding模型發(fā)生變化,需要以下命令初始化或重建知識庫:

python init_database.py --recreate-vs

啟動服務(wù)

啟用LLM服務(wù)

如果啟動在線的API服務(wù)(如 OPENAI 的 API 接口),則無需啟動 LLM 服務(wù),如需使用開源模型進(jìn)行本地部署,需首先啟動 LLM 服務(wù),參照項目部署手冊,LLM服務(wù)啟動方式有三種,我們只選擇其中之一即可,這里采用的是基于多進(jìn)程腳本 llm_api.py 啟動 LLM 服務(wù)
在項目根目錄下,執(zhí)行 server/llm_api.py 腳本啟動 LLM 模型服務(wù):

python server/llm_api.py

啟用API服務(wù)

執(zhí)行server/api.py 腳本啟動 API 服務(wù)

python server/api.py

啟動 API 服務(wù)后,可訪問 localhost:7861 或 {API 所在服務(wù)器 IP}:7861 FastAPI 自動生成的 docs 進(jìn)行接口查看與測試。
LangChain-Chatchat學(xué)習(xí)資料-Windows開發(fā)部署

啟用webui服務(wù)

啟動 API 服務(wù)后,執(zhí)行 webui.py 啟動 Web UI 服務(wù)(默認(rèn)使用端口 8501)

streamlit run webui.py

使用 Langchain-Chatchat 主題色啟動 Web UI 服務(wù)(默認(rèn)使用端口 8501)

streamlit run webui.py --theme.base "light" --theme.primaryColor "#165dff" --theme.secondaryBackgroundColor "#f5f5f5" --theme.textColor "#000000"

或使用以下命令指定啟動 Web UI 服務(wù)并指定端口號

streamlit run webui.py --server.port 666

啟動成功進(jìn)行訪問

LangChain-Chatchat學(xué)習(xí)資料-Windows開發(fā)部署文章來源地址http://www.zghlxwxcb.cn/news/detail-670727.html

到了這里,關(guān)于LangChain-Chatchat學(xué)習(xí)資料-Windows開發(fā)部署的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知識庫

    AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知識庫

    手把手教你搭建本地知識庫問答AI機(jī)器人 LangChain-Chatchat:基于LangChain和ChatGLM2-6B構(gòu)建本地離線私有化知識庫 在家庭私有云上部署體驗語言模型chatglm3-6b,打造私人助理 手把手教大家在本地運行ChatGLM3-6B大模型(一) 自從去年GPT模型火爆以來,降低了很多個人和企業(yè)進(jìn)入人工智

    2024年02月20日
    瀏覽(30)
  • 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二)

    從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二)

    接上文:從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫 Langchain-chatchat 0.2.10 推薦使用python3.11.7,通過下面命令進(jìn)行python環(huán)境創(chuàng)建。 如下圖 安裝完畢后,通過以下命令激活python虛擬環(huán)境 如下圖,shell命令行前面會出現(xiàn)(langchain)這個虛擬環(huán)境名。 轉(zhuǎn)到

    2024年03月21日
    瀏覽(30)
  • 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(完結(jié)篇)

    從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(完結(jié)篇)

    相關(guān)文章: 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(一) https://blog.csdn.net/hya168/article/details/131460230 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二) https://blog.csdn.net/hya168/article/details/135870440 生成默認(rèn)配置文件 此命令

    2024年02月20日
    瀏覽(21)
  • Flutter Windows開發(fā)環(huán)境搭建教程與學(xué)習(xí)資料推薦

    Flutter Windows開發(fā)環(huán)境搭建教程與學(xué)習(xí)資料推薦

    ??Windows應(yīng)用軟件開發(fā)有很多框架可以選擇,例如比較流行的Electron、Qt、CEF、WPF、WinForm、MFC、DuiLib、SOUI等等。Flutter是近幾年流行的全平臺應(yīng)用開發(fā)框架,可以進(jìn)行Android、IOS、Web、MacOS、Windows、Linux等平臺的應(yīng)用軟件開發(fā)。 ??Flutter是谷歌推出的一種移動應(yīng)用開發(fā)框架,使

    2024年02月05日
    瀏覽(22)
  • LLMs之RAG:LangChain-Chatchat(一款中文友好的全流程本地知識庫問答應(yīng)用)的簡介(支持 FastChat 接入的ChatGLM-2/LLaMA-2等多款主流LLMs+多款embe

    LLMs之RAG:LangChain-Chatchat(一款中文友好的全流程本地知識庫問答應(yīng)用)的簡介(支持 FastChat 接入的ChatGLM-2/LLaMA-2等多款主流LLMs+多款embe

    LLMs之RAG:LangChain-Chatchat(一款中文友好的全流程本地知識庫問答應(yīng)用)的簡介(支持?FastChat 接入的ChatGLM-2/LLaMA-2等多款主流LLMs+多款embedding模型m3e等+多種TextSplitter分詞器)、安裝(鏡像部署【AutoDL云平臺/Docker鏡像】,離線私有部署+支持RTX3090 ,支持FAISS/Milvus/PGVector向量庫, 基于

    2024年02月08日
    瀏覽(25)
  • zkrollup學(xué)習(xí)資料匯總

    FluiDex FluiDex Labs 致力于構(gòu)建下一代專業(yè)的去中心化交易所。我們將在以太坊上使用 PLONK 零知識證明技術(shù),開發(fā)高性能的訂單簿數(shù)字資產(chǎn)現(xiàn)貨交易所。 zksync: 最完整的 ZK-Rollup 開源項目代碼,涵蓋了一個 ZK-Rollup 系統(tǒng)需要的每個組件。使用 PLONK 機(jī)制,電路代碼使用 bellman,鏈下

    2024年02月12日
    瀏覽(15)
  • 【IOT】學(xué)習(xí)資料

    【IOT】學(xué)習(xí)資料

    隨著科技的不斷發(fā)展,物聯(lián)網(wǎng)(IoT)已經(jīng)成為了當(dāng)今數(shù)字化時代的一部分。物聯(lián)網(wǎng)將各種物理設(shè)備、傳感器和互聯(lián)網(wǎng)連接起來,為我們提供了巨大的數(shù)據(jù)流和智能化的應(yīng)用。在這個龐大的生態(tài)系統(tǒng)中,物聯(lián)網(wǎng)平臺扮演著至關(guān)重要的角色,它們不僅可以連接和管理物聯(lián)網(wǎng)設(shè)備,

    2024年02月20日
    瀏覽(19)
  • 以太坊入門學(xué)習(xí)資料

    區(qū)塊鏈按照訪問和管理權(quán)限分為公有鏈、聯(lián)盟鏈和私有鏈。 公有鏈:完全開放,所有節(jié)點均可加入,代表鏈-比特幣Bitcoin、以太坊Ethereum。 聯(lián)盟鏈:有多個組織和機(jī)構(gòu)共同管理,獲得組織和機(jī)構(gòu)許可的節(jié)點可以加入,代表鏈-超級賬本Hyperledger Fabric。 私有鏈:獲得集中管理者

    2024年02月02日
    瀏覽(17)
  • 0.flink學(xué)習(xí)資料

    (1)google dataflow model 下載鏈接:p1792-Akidau.pdf (vldb.org) Akidau T, Bradshaw R, Chambers C, et al. The dataflow model: a practical approach to balancing correctness, latency, and cost in massive-scale, unbounded, out-of-order data processing[J]. Proceedings of the VLDB Endowment, 2015, 8(12): 1792-1803 流式計算的基石文檔,google出品

    2024年02月12日
    瀏覽(20)
  • 自動駕駛最強學(xué)習(xí)資料

    自動駕駛最強學(xué)習(xí)資料

    資料說明和獲取方式 本資料包是作者吐血整理的干貨!目前為止應(yīng)該是非常全的自動駕駛資料包!是作者五年自動駕駛算法工程師的 積累! 以上干貨資料并不全是作者自己原創(chuàng), 是作者作為五年自動駕駛算法工程的積累,一部分是參考其他的資料,一部分是作者自己的一些

    2024年03月13日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包