国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

本地部署FastGPT使用在線大語言模型

這篇具有很好參考價(jià)值的文章主要介紹了本地部署FastGPT使用在線大語言模型。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

FastGPT 是一個(gè)基于 LLM 大語言模型的知識(shí)庫問答系統(tǒng),提供開箱即用的數(shù)據(jù)處理、模型調(diào)用等能力,它背后依賴OneApi開源項(xiàng)目來訪問各種大語言模型提供的能力。各大語言模型提供的訪問接口規(guī)范不盡相同,為此OneApi項(xiàng)目提供了統(tǒng)一的API接口去對接各種大語言模型。FastGPT的部署架構(gòu)如圖所示:
本地部署FastGPT使用在線大語言模型

本文章將介紹如何部署OneApi和FastGPT,以及兩種在線大語言模型(AzureOpenAI訊飛星火3.5)的配置方法。

我將在Windows系統(tǒng)的WSL子系統(tǒng)上進(jìn)行部署,WSL子系統(tǒng)安裝的是Ubuntu22 Linux系統(tǒng),WSL的部署方式完全適用于真實(shí)的Linux系統(tǒng)。

一、部署OneApi

OneApi項(xiàng)目開源地址:https://github.com/songquanpeng/one-api

1.在/opt目錄下創(chuàng)建oneapi目錄

cd opt
mkdir oneapi
cd oneapi

2.編輯docker-compose.yml文件

在/opt/oneapi目錄下創(chuàng)建docker-compose.yml文件,將下面的內(nèi)容復(fù)制進(jìn)去并保存

version: '3.8'

services:
  oneapi:
    container_name: oneapi
    image: justsong/one-api:latest
    restart: unless-stopped
    ports:
      - 3001:3000
    networks:
      - llm_net
    volumes:
      - ./data:/data
    environment:
      - TZ=Asia/Shanghai

networks:
  llm_net:
    name: llm_net
    external: true  

3.創(chuàng)建llm_net docker網(wǎng)絡(luò)

docker network create llm_net

4.運(yùn)行oneapi

docker compose up -d

5.配置AzureOpenAI渠道

登錄http://localhost:3001,用戶名:root,密碼:123456。

如果你沒有申請AzureOpenAI,可以直接查看訊飛星火的配置方式。其實(shí)申請AzureOpenAI并不難,網(wǎng)上教程很多,只要真實(shí)填寫相關(guān)信息,一般24小時(shí)內(nèi)就可以通過。

接下來我們添加AzureOpenAI渠道,按照圖中的方式填寫就好了。這里有一個(gè)需要注意的地方就是名稱那一項(xiàng)填的是Azure上面的部署名稱,而這個(gè)部署名稱必須要和模型名稱一致(很奇怪的做法,GitHub上已經(jīng)有人提了issue,正在解決)
本地部署FastGPT使用在線大語言模型
本地部署FastGPT使用在線大語言模型

6.測試

渠道添加成功后,可以在渠道列表頁面點(diǎn)擊“測試”按鈕,如果沒有問題,會(huì)返回測試成功。
本地部署FastGPT使用在線大語言模型

7.創(chuàng)建令牌

令牌的名稱隨便填,由于是測試,可以把額度設(shè)置為無限額度。

提交后,可以在令牌列表頁面復(fù)制剛剛創(chuàng)建的令牌,這個(gè)令牌將在部署FastGPT時(shí)用到。
本地部署FastGPT使用在線大語言模型

二、部署fastgpt

1.在/opt目錄下創(chuàng)建fastgpt目錄

cd opt
mkdir fastgpt
cd fastgpt

2.編輯docker-compose.yml文件

請先閱讀FastGPT官方部署文檔:https://doc.fastgpt.in/docs/development/docker/

下載docker-compose.yml文件和config.json文件

curl -O https://raw.githubusercontent.com/labring/FastGPT/main/files/deploy/fastgpt/docker-compose.yml
curl -O https://raw.githubusercontent.com/labring/FastGPT/main/projects/app/data/config.json

編輯docker-compose.yml文件,主要是更改了容器網(wǎng)絡(luò),數(shù)據(jù)庫用戶名密碼之類的

version: '3.8'
services:
  pg:
    image: ankane/pgvector:v0.5.0 # git
    # image: registry.cn-hangzhou.aliyuncs.com/fastgpt/pgvector:v0.5.0 # 阿里云
    container_name: pg
    restart: always
    ports: 
      - 5432:5432
    networks:
      - llm_net
    environment:
      - POSTGRES_USER=fastgpt
      - POSTGRES_PASSWORD=123456
      - POSTGRES_DB=fastgpt
    volumes:
      - ./pg/data:/var/lib/postgresql/data

  mongo:
    image: mongo:5.0.18
    # image: registry.cn-hangzhou.aliyuncs.com/fastgpt/mongo:5.0.18 # 阿里云
    container_name: mongo
    ports:
      - 27017:27017
    networks:
      - llm_net
    command: mongod --keyFile /data/mongodb.key --replSet rs0
    environment:
      - MONGO_INITDB_ROOT_USERNAME=fastgpt
      - MONGO_INITDB_ROOT_PASSWORD=123456
    volumes:
      - ./mongo/data:/data/db
      - ./mongodb.key:/data/mongodb.key

  fastgpt:
    container_name: fastgpt
    image: ghcr.io/labring/fastgpt:latest # git
    # image: registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:latest # 阿里云
    ports:
      - 3002:3000
    networks:
      - llm_net
    depends_on:
      - mongo
      - pg
    restart: always
    environment:
      - DEFAULT_ROOT_PSW=123456
      - OPENAI_BASE_URL=http://192.168.2.117:3001/v1
      - CHAT_API_KEY=sk-XXXXX # 在OneApi中創(chuàng)建的令牌
      - DB_MAX_LINK=5 # database max link
      - TOKEN_KEY=any
      - ROOT_KEY=root_key
      - FILE_TOKEN_KEY=filetoken
      # mongo 配置,不需要改. 用戶名myname,密碼mypassword。
      - MONGODB_URI=mongodb://fastgpt:123456@mongo:27017/fastgpt?authSource=admin
      # pg配置. 不需要改
      - PG_URL=postgresql://fastgpt:123456@pg:5432/fastgpt
    volumes:
      - ./config.json:/app/data/config.json

networks:
  llm_net:
    name: llm_net
    external: true  

這里要注意的 OPENAI_BASE_URL=http://192.168.2.117:3001/v1,我本來想設(shè)置成http://oneapi:3000/v1,因?yàn)閒astgpt與oneapi在同一個(gè)docker網(wǎng)絡(luò),但fastgpt訪問不了這個(gè)地址,可能是哪里沒有設(shè)置對,只好先用本機(jī)ip來訪問。

3.編輯config.json文件

改動(dòng)如下,name改成在oneapi配置中的一樣
本地部署FastGPT使用在線大語言模型

4.運(yùn)行fastgpt

docker compose up -d

運(yùn)行成功之后,不要忘了對MongoDb進(jìn)行配置,直接按官網(wǎng)的步驟進(jìn)行操作:

# 查看 mongo 容器是否正常運(yùn)行
docker ps
# 進(jìn)入容器
docker exec -it mongo bash
# 連接數(shù)據(jù)庫
mongo -u myname -p mypassword --authenticationDatabase admin
# 初始化副本集。如果需要外網(wǎng)訪問,mongo:27017 可以改成 ip:27017。但是需要同時(shí)修改 FastGPT 連接的參數(shù)(MONGODB_URI=mongodb://myname:mypassword@mongo:27017/fastgpt?authSource=admin => MONGODB_URI=mongodb://myname:mypassword@ip:27017/fastgpt?authSource=admin)
rs.initiate({
  _id: "rs0",
  members: [
    { _id: 0, host: "mongo:27017" }
  ]
})
# 檢查狀態(tài)。如果提示 rs0 狀態(tài),則代表運(yùn)行成功
rs.status()

5.測試

官網(wǎng)說OPENAI_BASE_URL地址后面要加v1,當(dāng)我加了的時(shí)候,測試結(jié)果如下,報(bào)404:
本地部署FastGPT使用在線大語言模型

于是去oneapi容器查看日志,可以看到fastgpt請求已經(jīng)轉(zhuǎn)到了oneapi,oneapi又去請求AzureOpenAI, AzureOpenAI返回404。于是去Azure上測試部署后的聊天功能,按F12查看網(wǎng)絡(luò)請求,發(fā)現(xiàn)路由里面沒有v1

于是更改docker-compose.yml文件,把OPENAI_BASE_URL值中的v1去掉了,重新執(zhí)行docker-compose up -d ,重啟之后繼續(xù)測試,這次的報(bào)錯(cuò)就不一樣了,如下圖所示:
本地部署FastGPT使用在線大語言模型

查看oneapi日志,請求結(jié)果是200,但沒有響應(yīng)內(nèi)容,找了很久的原因,無法得知是OneApi還是Azure OpenAI的問題,于是轉(zhuǎn)而去測試訊飛星火大模型。
本地部署FastGPT使用在線大語言模型

三、配置訊飛星火認(rèn)知大模型

1.創(chuàng)建訊飛模型應(yīng)用

先去官方領(lǐng)取訊飛星火認(rèn)知大模型的個(gè)人免費(fèi)試用套餐(我選的是V3.5版本):https://xinghuo.xfyun.cn/sparkapi?scr=price
本地部署FastGPT使用在線大語言模型

然后去到訊飛開放平臺(tái)去創(chuàng)建基于v3.5版本的應(yīng)用,得到APPID、APISecret、APIKey三個(gè)值(在OneApi中需要用到)
本地部署FastGPT使用在線大語言模型

2.在oneapi頁面添加星火模型渠道

本地部署FastGPT使用在線大語言模型

3.編輯fastgpt的config.json文件

增加星火模型的配置
本地部署FastGPT使用在線大語言模型

4.重啟fastgpt容器

注意:如果你之前的操作把OPENAI_BASE_URL的v1去掉了,請把它補(bǔ)上,然后執(zhí)行命令:docker-compose up -d

5.測試

AI模型選擇上面配置的spark3.5,測試成功
本地部署FastGPT使用在線大語言模型文章來源地址http://www.zghlxwxcb.cn/news/detail-837692.html

到了這里,關(guān)于本地部署FastGPT使用在線大語言模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 群暉NAS使用Docker部署大語言模型Llama 2結(jié)合內(nèi)網(wǎng)穿透實(shí)現(xiàn)公網(wǎng)訪問本地GPT聊天服務(wù)

    群暉NAS使用Docker部署大語言模型Llama 2結(jié)合內(nèi)網(wǎng)穿透實(shí)現(xiàn)公網(wǎng)訪問本地GPT聊天服務(wù)

    隨著ChatGPT 和open Sora 的熱度劇增,大語言模型時(shí)代,開啟了AI新篇章,大語言模型的應(yīng)用非常廣泛,包括聊天機(jī)器人、智能客服、自動(dòng)翻譯、寫作助手等。它們可以根據(jù)用戶輸入的文本生成相應(yīng)的響應(yīng),提供個(gè)性化的建議和服務(wù),目前大部分大語言模型的產(chǎn)品都是基于網(wǎng)絡(luò)線上的

    2024年04月17日
    瀏覽(18)
  • 本地化部署大語言模型 ChatGLM

    本地化部署大語言模型 ChatGLM

    ChatGLM-6B 是一個(gè)開源的、支持中英雙語的對話語言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技術(shù),針對中文問答和對話進(jìn)行了優(yōu)

    2023年04月20日
    瀏覽(32)
  • 【大語言模型】輕松本地部署Stable Diffusion

    【大語言模型】輕松本地部署Stable Diffusion

    硬件要求: 配備至少8GB VRAM的GPU,如果你的電腦只有CPU,請看到最后。 根據(jù)部署規(guī)模,需要足夠的CPU和RAM。 軟件要求: Python 3.7或更高版本。 支持NVIDIA GPU的PyTorch。 Hugging Face的Diffusers庫。 Hugging Face的Transformers庫。 步驟: 1. 設(shè)置Python環(huán)境 安裝Python并創(chuàng)建一個(gè)虛擬環(huán)境: 2.

    2024年04月17日
    瀏覽(23)
  • AI知識(shí)庫進(jìn)階!三種數(shù)據(jù)處理方法!提高正確率!本地大模型+fastgpt知識(shí)庫手把手搭建!22/45

    AI知識(shí)庫進(jìn)階!三種數(shù)據(jù)處理方法!提高正確率!本地大模型+fastgpt知識(shí)庫手把手搭建!22/45

    hi~ 在上一篇,我們成功搭建了本地知識(shí)庫+大模型的完全體! 在知識(shí)星球收到很多朋友的打卡,有各種報(bào)錯(cuò)差點(diǎn)崩潰的,也有看到部署成功,開心得跳起來的! 除了自用,還有星球朋友學(xué)會(huì)搭建,成功接到商單(聽說單子還不小)! 不管怎樣,酸甜苦辣,總算把它部署了下

    2024年03月11日
    瀏覽(20)
  • GPT大語言模型Alpaca-lora本地化部署實(shí)踐【大語言模型實(shí)踐一】

    Alpaca模型是斯坦福大學(xué)研發(fā)的LLM(Large Language Model,大語言)開源模型,是一個(gè)在52K指令上從LLaMA 7B(Meta公司開源的7B)模型微調(diào)而來,具有 70億 的模型參數(shù)(模型參數(shù)越大,模型的推理能力越強(qiáng),當(dāng)然隨之訓(xùn)練模型的成本也就越高)。 LoRA,英文全稱Low-Rank Adaptation of Large

    2024年02月05日
    瀏覽(25)
  • Python潮流周刊#9:如何在本地部署開源大語言模型?

    你好,我是貓哥。這里每周分享優(yōu)質(zhì)的 Python 及通用技術(shù)內(nèi)容,部分為英文,已在小標(biāo)題注明。(標(biāo)題取自其中一則分享,不代表全部內(nèi)容都是該主題,特此聲明。) 首發(fā)于我的博客:https://pythoncat.top/posts/2023-07-01-weekly 周刊的投稿通道已開放 ,請?jiān)?Github 項(xiàng)目中提交 issue:

    2024年02月11日
    瀏覽(22)
  • 開源雙語對話語言模型 ChatGLM-6B 本地私有化部署

    開源雙語對話語言模型 ChatGLM-6B 本地私有化部署

    本文首發(fā)于:https://www.licorne.ink/2023/08/llm-chatglm-6b-local-deploy/ ChatGLM-6B 是一個(gè)開源的、支持中英雙語的對話語言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。 ChatGL

    2024年02月10日
    瀏覽(105)
  • Windows本地部署Ollama+qwen本地大語言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪問

    Windows本地部署Ollama+qwen本地大語言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪問

    本文主要介紹如何在Windows系統(tǒng)快速部署Ollama開源大語言模型運(yùn)行工具,并安裝Open WebUI結(jié)合cpolar內(nèi)網(wǎng)穿透軟件,實(shí)現(xiàn)在公網(wǎng)環(huán)境也能訪問你在本地內(nèi)網(wǎng)搭建的大語言模型運(yùn)行環(huán)境。 近些年來隨著ChatGPT的興起,大語言模型 LLM(Large Language Model)也成為了人工智能AI領(lǐng)域的熱門話

    2024年04月16日
    瀏覽(27)
  • 本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA)

    本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA)

    GitHub地址:https://github.com/dvlab-research/LISA 該項(xiàng)目論文paper reading:https://blog.csdn.net/Transfattyacids/article/details/132254770 在GitHub上下載源文件,進(jìn)入下載的文件夾,打開該地址下的命令控制臺(tái),執(zhí)行指令: 幾種報(bào)錯(cuò)解決方法: 下載包失敗 例:“pip install numpy” 解決:“pip install n

    2024年02月10日
    瀏覽(21)
  • GPT大語言模型Alpaca-lora本地化部署實(shí)踐【大語言模型實(shí)踐一】 | 京東云技術(shù)團(tuán)隊(duì)

    GPT大語言模型Alpaca-lora本地化部署實(shí)踐【大語言模型實(shí)踐一】 | 京東云技術(shù)團(tuán)隊(duì)

    Alpaca模型是斯坦福大學(xué)研發(fā)的LLM(Large Language Model,大語言)開源模型,是一個(gè)在52K指令上從LLaMA 7B(Meta公司開源的7B)模型微調(diào)而來,具有 70億 的模型參數(shù)(模型參數(shù)越大,模型的推理能力越強(qiáng),當(dāng)然隨之訓(xùn)練模型的成本也就越高)。 LoRA,英文全稱Low-Rank Adaptation of Large

    2024年02月05日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包