国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

本地部署 langchain-ChatGLM

這篇具有很好參考價值的文章主要介紹了本地部署 langchain-ChatGLM。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1. 什么是 langchain-ChatGLM

一種利用 ChatGLM-6B + langchain 實現(xiàn)的基于本地知識的 ChatGLM 應(yīng)用。增加 clue-ai/ChatYuan 項目的模型 ClueAI/ChatYuan-large-v2 的支持。

本項目中 Embedding 默認(rèn)選用的是 GanymedeNil/text2vec-large-chinese,LLM 默認(rèn)選用的是 ChatGLM-6B。依托上述模型,本項目可實現(xiàn)全部使用開源模型離線私有部署。

2. 什么是 langchain

大型語言模型(LLM)正在成為一種變革性的技術(shù),使開發(fā)者能夠建立他們以前無法建立的應(yīng)用程序。然而,孤立地使用這些LLM往往不足以創(chuàng)建一個真正強(qiáng)大的應(yīng)用程序–當(dāng)你能將它們與其他計算或知識來源相結(jié)合時,真正的力量才會出現(xiàn)。這個庫的目的是協(xié)助開發(fā)這些類型的應(yīng)用。

langchain 使用 Transformer 模型,并在多個語言間建立鏈?zhǔn)浇Y(jié)構(gòu)實現(xiàn)翻譯。比如,它可以通過英語→法語→西班牙語完成英語到西班牙語的翻譯。

langchain 只使用公開數(shù)據(jù)集進(jìn)行訓(xùn)練,不需要額外的數(shù)據(jù)。它使用的訓(xùn)練集包括:

  • WMT2014英法翻譯數(shù)據(jù)集
  • WMT2014英德翻譯數(shù)據(jù)集
  • UN翻譯語料庫

langchain 提供11種語言的機(jī)器翻譯模型,語言包括:英語、法語、西班牙語、意大利語、德語、荷蘭語、葡萄牙語、俄語、日語、中文、阿拉伯語。

langchain的參數(shù)量較小,其基礎(chǔ)模型只有 47M 參數(shù),加快推理速度并降低計算資源要求。

langchain開源免費(fèi),模型與代碼都在 GitHub 開源,方便研究與生產(chǎn)使用。

3. Github 地址

https://github.com/imClumsyPanda/langchain-ChatGLM

https://github.com/hwchase17/langchain

4. 安裝 Miniconda3

下載 Conda 安裝腳本,

wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh

運(yùn)行安裝腳本,

bash Miniconda3-latest-Linux-x86_64.sh

按提示操作。當(dāng)提示是否初始化 Conda 時,輸入 “yes”,

本地部署 langchain-ChatGLM

安裝完成后,關(guān)閉當(dāng)前終端并打開新終端,這將激活 Conda,

sudo su - root

更新 Conda 至最新版本,

conda update conda

本地部署 langchain-ChatGLM
本地部署 langchain-ChatGLM

添加必要的 Conda 通道以獲取更多軟件包,

conda config --add channels conda-forge
conda config --add channels defaults 

測試是否安裝成功,

conda list

如果顯示 Conda 及其內(nèi)部包的列表,則說明安裝成功。

5. 創(chuàng)建虛擬環(huán)境

conda create -n langchain-chatglm python==3.10.4
conda activate langchain-chatglm

6. 部署 langchain-ChatGLM

git clone https://github.com/imClumsyPanda/langchain-ChatGLM; cd langchain-ChatGLM
pip3 install -r requirements.txt
pip3 install -U gradio
pip3 install modelscope

7. 啟動 langchain-ChatGLM

python webui.py

8. 訪問 langchain-ChatGLM

使用瀏覽器打開 http://localhost:7860/

本地部署 langchain-ChatGLM
問它一個問題,清華大學(xué)在哪?

本地部署 langchain-ChatGLM

9. API部署

python api.py

10. 命令行部署

python cli_demo.py

11. 其他,LangChain Document Loaders

refer: https://python.langchain.com/en/latest/modules/indexes/document_loaders.html

將語言模型與你自己的文本數(shù)據(jù)結(jié)合起來是一個強(qiáng)有力的方法。做到這一點的第一步是將數(shù)據(jù)加載到 "文檔 "中 – 即一些文本片段。這個模塊的目的是使之變得簡單。

這方面的一個主要驅(qū)動是 Unstructured python 包。這個包是將所有類型的文件 – 文本、powerpoint、圖片、html、pdf等–轉(zhuǎn)化為文本數(shù)據(jù)的好方法。

完結(jié)!文章來源地址http://www.zghlxwxcb.cn/news/detail-457546.html

到了這里,關(guān)于本地部署 langchain-ChatGLM的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • langchain-ChatGLM源碼閱讀:模型加載

    langchain-ChatGLM源碼閱讀:模型加載

    loader.py shared.py loader.py 在加載模型前先清空顯存 loader.py loader.py 的 _load_model 方法 auto_factory.py 的 from_pretrained 方法 包路徑:site-packages/transformers/models/auto/auto_factory.py 作用:將配置對象的類與模型類或?qū)ο蠼㈥P(guān)聯(lián),以便根據(jù)配置來獲取相應(yīng)的模型類或?qū)ο?。這通常用于管理不

    2024年02月12日
    瀏覽(26)
  • Langchain-ChatGLM配置文件參數(shù)測試

    Langchain-ChatGLM配置文件參數(shù)測試

    1 已知可能影響對話效果的參數(shù)(位于configs/model_config.py文件): 其中可能對讀取知識庫影響較大的變量有CHUNK_SIZE(單段參考上下文的長度),VECTOR_SEARCH_TOP_K(知識庫參考文段數(shù)量),和VECTOR_SEARCH_SCORE_THRESHOLD(知識庫匹配內(nèi)容需要達(dá)到的最小相關(guān)度)。本實驗將通過向不同

    2024年02月16日
    瀏覽(21)
  • langchain-ChatGLM源碼閱讀:參數(shù)設(shè)置

    langchain-ChatGLM源碼閱讀:參數(shù)設(shè)置

    上下文關(guān)聯(lián)相關(guān)參數(shù): 知識相關(guān)度閾值score_threshold 內(nèi)容條數(shù)k 是否啟用上下文關(guān)聯(lián)chunk_conent 上下文最大長度chunk_size 其主要作用是在所在文檔中擴(kuò)展與當(dāng)前query相似度較高的知識庫的內(nèi)容,作為相關(guān)信息與query按照prompt規(guī)則組合后作為輸入獲得模型的回答。 獲取查詢句query嵌

    2024年02月14日
    瀏覽(25)
  • langchain-ChatGLM源碼閱讀:webui.py

    使用gradio設(shè)置頁面的視覺組件和交互邏輯,位于 webui.py 監(jiān)聽到前端的事件后調(diào)用的回調(diào)函數(shù),負(fù)責(zé)實現(xiàn)前后端交互。需要注意的一點是,chatbot中顯示新的聊天內(nèi)容并不是在原來的基礎(chǔ)上添加,而是從頭到尾的重新打印,所以基本上每個函數(shù)都要傳舊的history和返回新的histor

    2024年02月14日
    瀏覽(20)
  • 2M大小的PDF文檔上傳到LangChain-ChatGLM知識圖譜中,大致需要的時間

    對于將2M大小的PDF文檔上傳到LangChain-ChatGLM知識圖譜中,大致需要的時間如下: PDF到文本的提取轉(zhuǎn)換:若PDF內(nèi)容主要為文本,此步驟約需要1-2分鐘。 提取的文本經(jīng)過預(yù)處理與分析:此步驟需要對文本進(jìn)行分詞、命名實體識別等處理,約需要2-5分鐘。 抽取文本中的結(jié)構(gòu)化知識(實體、關(guān)

    2024年02月08日
    瀏覽(20)
  • AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知識庫

    AI-基于Langchain-Chatchat和chatglm3-6b部署私有本地知識庫

    手把手教你搭建本地知識庫問答AI機(jī)器人 LangChain-Chatchat:基于LangChain和ChatGLM2-6B構(gòu)建本地離線私有化知識庫 在家庭私有云上部署體驗語言模型chatglm3-6b,打造私人助理 手把手教大家在本地運(yùn)行ChatGLM3-6B大模型(一) 自從去年GPT模型火爆以來,降低了很多個人和企業(yè)進(jìn)入人工智

    2024年02月20日
    瀏覽(30)
  • 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二)

    從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二)

    接上文:從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫 Langchain-chatchat 0.2.10 推薦使用python3.11.7,通過下面命令進(jìn)行python環(huán)境創(chuàng)建。 如下圖 安裝完畢后,通過以下命令激活python虛擬環(huán)境 如下圖,shell命令行前面會出現(xiàn)(langchain)這個虛擬環(huán)境名。 轉(zhuǎn)到

    2024年03月21日
    瀏覽(32)
  • 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(完結(jié)篇)

    從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(完結(jié)篇)

    相關(guān)文章: 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(一) https://blog.csdn.net/hya168/article/details/131460230 從零開始部署ubuntu+Anaconda3+langchain-chatchat+chatglm3-6b大模型,本地知識庫(二) https://blog.csdn.net/hya168/article/details/135870440 生成默認(rèn)配置文件 此命令

    2024年02月20日
    瀏覽(21)
  • 本地化GPT:LangChain + ChatGLM == 知識本地庫

    OpenAI發(fā)布的ChatGPT Plugin剛剛殺死了一個創(chuàng)業(yè)公司LangChain(剛獲得1000萬美金種子輪融資) 由于語言模型的輸出是通過自回歸+采樣[可選]完成的,在高精度場景下,即使是超大語言模型,發(fā)生錯誤概率也是指數(shù)級的。同時,采樣也很容易引入錯誤。比如地址中的數(shù)字門牌號,模型

    2024年02月11日
    瀏覽(24)
  • 使用LangChain與ChatGLM實現(xiàn)本地知識庫(一)

    使用LangChain與ChatGLM實現(xiàn)本地知識庫(一)

    ??本篇主要內(nèi)容為介紹ChatGLM3的安裝使用,后續(xù)才會涉及到使用LangChain實現(xiàn)本地知識庫的內(nèi)容; ??ChatGLM為智譜與清華大學(xué)開源的一個大語言模型,支持多輪對話、內(nèi)容創(chuàng)作等,ChatGLM3-6B為ChatGLM3系列中門檻相對較低的一個,本地部署提供兼容OpenAI的API; ??LangChain用于快

    2024年02月05日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包