国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

開源大模型ChatGLM2-6B 2. 跟著LangChain參考文檔搭建LLM+知識庫問答系統(tǒng)

這篇具有很好參考價值的文章主要介紹了開源大模型ChatGLM2-6B 2. 跟著LangChain參考文檔搭建LLM+知識庫問答系統(tǒng)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

0. 環(huán)境


租用了1臺GPU服務器,系統(tǒng) ubuntu20,Tesla V100-16GB

(GPU服務器已經關機結束租賃了)
SSH地址:*
端口:17520

SSH賬戶:root
密碼:Jaere7pa

內網: 3389 , 外網:17518

VNC地址:*
端口:17519

VNC用戶名:root
密碼:Jaere7pa

硬件需求,ChatGLM-6B和ChatGLM2-6B相當。
量化等級?? ?最低 GPU 顯存
FP16(無量化)?? ?13 GB
INT8?? ?10 GB
INT4?? ?6 GB

1. 基本環(huán)境

1.1 測試gpu

nvidia-smi
(base) root@ubuntuserver:~# nvidia-smi
Tue Sep 12 02:06:45 2023
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 510.54 ? ? ? Driver Version: 510.54 ? ? ? CUDA Version: 11.6 ? ? |
|-------------------------------+----------------------+----------------------+
| GPU ?Name ? ? ? ?Persistence-M| Bus-Id ? ? ? ?Disp.A | Volatile Uncorr. ECC |
| Fan ?Temp ?Perf ?Pwr:Usage/Cap| ? ? ? ? Memory-Usage | GPU-Util ?Compute M. |
| ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? | ? ? ? ? ? ? ? ? ? ? ?| ? ? ? ? ? ? ? MIG M. |
|===============================+======================+======================|
| ? 0 ?Tesla V100-PCIE... ?Off ?| 00000000:00:07.0 Off | ? ? ? ? ? ? ? ? ? ?0 |
| N/A ? 42C ? ?P0 ? ?38W / 250W | ? ? ?0MiB / 16384MiB | ? ? ?0% ? ? ?Default |
| ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? | ? ? ? ? ? ? ? ? ? ? ?| ? ? ? ? ? ? ? ? ?N/A |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes: ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?|
| ?GPU ? GI ? CI ? ? ? ?PID ? Type ? Process name ? ? ? ? ? ? ? ? ?GPU Memory |
| ? ? ? ?ID ? ID ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? Usage ? ? ?|
|=============================================================================|
| ?No running processes found ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? |
+-----------------------------------------------------------------------------+

(base) root@ubuntuserver:~#

1.2 python


當前LangChain安裝說明,需要Python 3.8 - 3.10 版本
執(zhí)行python3
可以看到python3.9

# 如果低于這個版本,可使用conda安裝環(huán)境
$ conda create -p /root/work/conda_py310_chatglm2 python=3.10

# 激活環(huán)境
$ source activate /root/work/conda_py310_chatglm2

# 更新py庫
$ pip3 install --upgrade pip

# 關閉環(huán)境
$ source deactivate /root/work/conda_py310_chatglm2

# 刪除環(huán)境
$ conda env remove -p ?/root/work/conda_py310_chatglm2

1.3 pip

pip3 install --upgrade pip -i https://pypi.tuna.tsinghua.edu.cn/simple

1.4 準備倉庫

git clone https://github.com/chatchat-space/Langchain-Chatchat.git
cd Langchain-Chatchat

1.5 升級cuda


查看顯卡驅動版本要求:
https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html

發(fā)現cuda 11.8需要 >=450.80.02。已經滿足。

執(zhí)行指令更新cuda

wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda_11.8.0_520.61.05_linux.run
sh cuda_11.8.0_520.61.05_linux.run


-> 輸入 accept
-> 取消勾選 Driver
-> 點擊 install

export PATH=$PATH:/usr/local/cuda-11.8/bin
nvcc --version

準備switch-cuda.sh腳本

#!/usr/bin/env bash
# Copyright (c) 2018 Patrick Hohenecker
#
# Permission is hereby granted, free of charge, to any person obtaining a copy
# of this software and associated documentation files (the "Software"), to deal
# in the Software without restriction, including without limitation the rights
# to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
# copies of the Software, and to permit persons to whom the Software is
# furnished to do so, subject to the following conditions:
#
# The above copyright notice and this permission notice shall be included in all
# copies or substantial portions of the Software.
#
# THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
# IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
# FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
# AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
# LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
# OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
# SOFTWARE.

# author:   Patrick Hohenecker <mail@paho.at>
# version:  2018.1
# date:     May 15, 2018


set -e


# ensure that the script has been sourced rather than just executed
if [[ "${BASH_SOURCE[0]}" = "${0}" ]]; then
    echo "Please use 'source' to execute switch-cuda.sh!"
    exit 1
fi

INSTALL_FOLDER="/usr/local"  # the location to look for CUDA installations at
TARGET_VERSION=${1}          # the target CUDA version to switch to (if provided)

# if no version to switch to has been provided, then just print all available CUDA installations
if [[ -z ${TARGET_VERSION} ]]; then
    echo "The following CUDA installations have been found (in '${INSTALL_FOLDER}'):"
    ls -l "${INSTALL_FOLDER}" | egrep -o "cuda-[0-9]+\\.[0-9]+$" | while read -r line; do
        echo "* ${line}"
    done
    set +e
    return
# otherwise, check whether there is an installation of the requested CUDA version
elif [[ ! -d "${INSTALL_FOLDER}/cuda-${TARGET_VERSION}" ]]; then
    echo "No installation of CUDA ${TARGET_VERSION} has been found!"
    set +e
    return
fi

# the path of the installation to use
cuda_path="${INSTALL_FOLDER}/cuda-${TARGET_VERSION}"

# filter out those CUDA entries from the PATH that are not needed anymore
path_elements=(${PATH//:/ })
new_path="${cuda_path}/bin"
for p in "${path_elements[@]}"; do
    if [[ ! ${p} =~ ^${INSTALL_FOLDER}/cuda ]]; then
        new_path="${new_path}:${p}"
    fi
done

# filter out those CUDA entries from the LD_LIBRARY_PATH that are not needed anymore
ld_path_elements=(${LD_LIBRARY_PATH//:/ })
new_ld_path="${cuda_path}/lib64:${cuda_path}/extras/CUPTI/lib64"
for p in "${ld_path_elements[@]}"; do
    if [[ ! ${p} =~ ^${INSTALL_FOLDER}/cuda ]]; then
        new_ld_path="${new_ld_path}:${p}"
    fi
done

# update environment variables
export CUDA_HOME="${cuda_path}"
export CUDA_ROOT="${cuda_path}"
export LD_LIBRARY_PATH="${new_ld_path}"
export PATH="${new_path}"

echo "Switched to CUDA ${TARGET_VERSION}."

set +e
return

用法

source switch-cuda.sh 11.8

1.6 單獨安裝torch-gpu版本

$ pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

1.7 安裝全部依賴

$ pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

驗證torch是否帶有cuda

import torch
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
print(device)

2. 下載模型

2.1 chatglm2-6b

GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/chatglm2-6b
下載ChatGLM2作者上傳到清華網盤的模型文件
https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/?p=%2Fchatglm2-6b&mode=list
并覆蓋到chatglm2-6b

先前以為用wget可以下載,結果下來的文件是一樣大的,造成推理失敗。
win10 逐一校驗文件SHA256,需要和https://huggingface.co/THUDM/chatglm2-6b中Git LFS Details的匹配。

C:\Users\qjfen\Downloads\chatglm2-6b>certutil -hashfile pytorch_model-00001-of-00007.bin SHA256
pytorch_model-00001-of-00007.bin ?? ??? ?cdf1bf57d519abe11043e9121314e76bc0934993e649a9e438a4b0894f4e6ee8
pytorch_model-00002-of-00007.bin?? ??? ?1cd596bd15905248b20b755daf12a02a8fa963da09b59da7fdc896e17bfa518c
pytorch_model-00003-of-00007.bin ?? ??? ?812edc55c969d2ef82dcda8c275e379ef689761b13860da8ea7c1f3a475975c8
pytorch_model-00004-of-00007.bin ?? ??? ?555c17fac2d80e38ba332546dc759b6b7e07aee21e5d0d7826375b998e5aada3
pytorch_model-00005-of-00007.bin ?? ??? ?cb85560ccfa77a9e4dd67a838c8d1eeb0071427fd8708e18be9c77224969ef48
pytorch_model-00006-of-00007.bin ?? ??? ?09ebd811227d992350b92b2c3491f677ae1f3c586b38abe95784fd2f7d23d5f2
pytorch_model-00007-of-00007.bin ?? ??? ?316e007bc727f3cbba432d29e1d3e35ac8ef8eb52df4db9f0609d091a43c69cb

這里需要推到服務器中。并在ubuntu下用sha256sum <filename> 校驗下大文件。

2.2 text2vec


GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/GanymedeNil/text2vec-large-chinese text2vec
下載這兩份文件,并放到 text2vec 內:

model.safetensors?? ??? ??? ??? ??? ??? ?eaf5cb71c0eeab7db3c5171da504e5867b3f67a78e07bdba9b52d334ae35adb3
pytorch_model.bin?? ??? ??? ??? ??? ??? ?5883cb940ac5509b75e9fe23a9aea62694045849dc8c8c2da2894861a045d7f5

3. 參數配置

cd configs
cp configs/model_config.py.example configs/model_config.py
cp configs/server_config.py.example configs/server_config.py

修改configs/model_config.py·

embedding_model_dict = {
? ? "text2vec": "/root/work/Langchain-Chatchat/text2vec",
}
# 選用的 Embedding 名稱
EMBEDDING_MODEL = "text2vec"

llm_model_dict = {
? ? "chatglm2-6b": {
? ? ? ? "local_model_path": "/root/work/Langchain-Chatchat/chatglm2-6b",
? ? },
}
# LLM 名稱
LLM_MODEL = "chatglm2-6b"

4. 知識庫初始化與遷移


初始化知識庫:

$ python init_database.py --recreate-vs

5. 一鍵啟動API 服務或 Web UI

5.1 啟動命令


一鍵啟動腳本 startup.py,一鍵啟動所有 Fastchat 服務、API 服務、WebUI 服務,示例代碼:

$ python startup.py -a

5.2 運行測試

瀏覽器打開 127.0.0.1:8501。

大模型外掛文檔 問答系統(tǒng),深度學習,Python,人工智能

對話模式支持LLM對話,知識庫問答,搜索引擎問答。

大模型外掛文檔 問答系統(tǒng),深度學習,Python,人工智能

大模型外掛文檔 問答系統(tǒng),深度學習,Python,人工智能

知識庫問答看起來是本倉庫作者制作的,根據分析、數據檢索生成的問答結果。

大模型外掛文檔 問答系統(tǒng),深度學習,Python,人工智能文章來源地址http://www.zghlxwxcb.cn/news/detail-773387.html

參考:

[1]https://github.com/THUDM/ChatGLM2-6B
[2]ChatGLM-6B (介紹以及本地部署),https://blog.csdn.net/qq128252/article/details/129625046
[3]ChatGLM2-6B|開源本地化語言模型,https://openai.wiki/chatglm2-6b.html
[3]免費部署一個開源大模型 MOSS,https://zhuanlan.zhihu.com/p/624490276
[4]LangChain + ChatGLM2-6B 搭建個人專屬知識庫,https://zhuanlan.zhihu.com/p/643531454
[5]https://pytorch.org/get-started/locally/

到了這里,關于開源大模型ChatGLM2-6B 2. 跟著LangChain參考文檔搭建LLM+知識庫問答系統(tǒng)的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 【AI】清華開源中英雙語對話模型ChatGLM2-6B本地安裝筆記

    【AI】清華開源中英雙語對話模型ChatGLM2-6B本地安裝筆記

    首先,直接上資源,網盤中是ChatGLM2-6B源碼及模型文件: 鏈接:https://pan.baidu.com/s/1DciporsVT-eSiVIAeU-YmQ 提取碼:cssa 官方的Readme已經很詳盡了,再寫點安裝博客有點畫蛇添足。本著記錄自己的工作內容的初衷,還是寫一寫吧,畢竟輸出才是最好的學習。 本文記錄了本地安裝Cha

    2024年02月16日
    瀏覽(33)
  • 阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM

    阿里云部署 ChatGLM2-6B 與 langchain+ChatGLM

    更新系統(tǒng) 安裝git 克隆 ChatGLM2-6B 源碼 克隆 chatglm2-6b 模型 安裝 ChatGLM2-6B 依賴 修改模型的路徑 修改成 啟動服務 啟動成功后 克隆 langchain-ChatGLM 源碼 git clone https://github.com/imClumsyPanda/langchain-ChatGLM.git 克隆模型 安裝 langchain-ChatGLM 依賴 修改配置 修改一 修改成 修改二 修改成 修改

    2024年02月15日
    瀏覽(33)
  • 清華大學開源ChatGLM2-6B開源模型在anaconda下的虛擬環(huán)境詳細部署及安裝教程

    清華大學開源ChatGLM2-6B開源模型在anaconda下的虛擬環(huán)境詳細部署及安裝教程

    python版本要求:3.8以上 沒有安裝python的沒有關系,我們在下面安裝anaconda中會自動生成python,有了python的建議刪除,通過anaconda安裝python以便于后面創(chuàng)建虛擬環(huán)境。 windows系統(tǒng):Windows 10 以上,推薦N卡(NVIDIA顯卡20系列以上) 注意:處理器為AMD容易報錯,intel的不容易報錯,配

    2024年02月16日
    瀏覽(37)
  • LangChain + ChatGLM2-6B 搭建個人專屬知識庫

    LangChain + ChatGLM2-6B 搭建個人專屬知識庫

    之前教過大家利用 langchain + ChatGLM-6B 實現個人專屬知識庫,非常簡單易上手。最近,智譜 AI 研發(fā)團隊又推出了 ChatGLM 系列的新模型 ChatGLM2-6B,是開源中英雙語對話模型 ChatGLM-6B 的第二代版本,性能更強悍。 樹先生之所以現在才更新 ChatGLM2-6B 知識庫教程,是想等模型本身再多

    2024年02月16日
    瀏覽(24)
  • ChatGLM2-6B_ An Open Bilingual Chat LLM _ 開源雙語對話語言模型

    更強大的性能 :基于 ChatGLM 初代模型的開發(fā)經驗,我們全面升級了 ChatGLM2-6B 的基座模型。ChatGLM2-6B 使用了 [GLM]的混合目標函數,經過了 1.4T 中英標識符的預訓練與人類偏好對齊訓練,評測結果顯示,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BB

    2024年04月14日
    瀏覽(26)
  • 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 開源中英雙語對話模型

    【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署chatglm2-6b 開源中英雙語對話模型

    項目地址 chatglm2-6b 下載模型 創(chuàng)建測試項目 創(chuàng)建虛擬環(huán)境安裝依賴 完整的venv環(huán)境 main.py 執(zhí)行 python進程cpu使用率100.3%持續(xù)了很長時間,沒有啟用多線程?

    2024年01月20日
    瀏覽(25)
  • ChatGLM2-6B、ChatGLM-6B 模型介紹及訓練自己數據集實戰(zhàn)

    ChatGLM2-6B、ChatGLM-6B 模型介紹及訓練自己數據集實戰(zhàn)

    介紹 ChatGLM-6B是開源的文本生成式對話模型,基于General Language Model(GLM)框架,具有62億參數,結合模型蒸餾技術,實測在2080ti顯卡訓練中上(INT4)顯存占用 6G 左右, 優(yōu)點 :1.較低的部署門檻: FP16 半精度下,ChatGLM-6B 需要至少 13GB 的顯存進行推理,結合模型量化技術,一需求可以進一步

    2024年02月12日
    瀏覽(25)
  • AIGC - ChatGLM大模型:ChatGLM2-6B模型推理部署

    AIGC - ChatGLM大模型:ChatGLM2-6B模型推理部署

    如果你要問我為什么直接部署ChatGLM2的模型? 因為當我在8月份在上海召開的全球人工智能大會上了解到清華-智譜發(fā)布的ChatGLM模型時,它已經發(fā)布了新的版本ChatGLM2,并且推理的效果提升了不少,那么本著只要最好的原則,我就直接上手先玩新版本了。 作為AIGC方面的小白來說

    2024年02月06日
    瀏覽(23)
  • 第五篇-ChatGLM2-6B模型下載

    可以使用如下代碼下載 創(chuàng)建下載環(huán)境 編寫代碼 down_glm2.py snapshot_download其他參數 只允許下載部分類型的文件(以JSON為例) allow_patterns=‘*.json’, 不允許下載部分類型的文件(以JSON為例) ignore_patterns=[‘*.json’] 執(zhí)行下 第一篇-ChatGLM-webui-Windows安裝部署-CPU版 第二篇-二手工作站

    2024年02月14日
    瀏覽(60)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包