国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

如何在群暉Docker運(yùn)行本地聊天機(jī)器人并結(jié)合內(nèi)網(wǎng)穿透發(fā)布到公網(wǎng)訪問

這篇具有很好參考價(jià)值的文章主要介紹了如何在群暉Docker運(yùn)行本地聊天機(jī)器人并結(jié)合內(nèi)網(wǎng)穿透發(fā)布到公網(wǎng)訪問。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。


隨著ChatGPT 和open Sora 的熱度劇增,大語言模型時(shí)代,開啟了AI新篇章,大語言模型的應(yīng)用非常廣泛,包括聊天機(jī)器人、智能客服、自動(dòng)翻譯、寫作助手等。它們可以根據(jù)用戶輸入的文本生成相應(yīng)的響應(yīng),提供個(gè)性化的建議和服務(wù),目前大部分大語言模型的產(chǎn)品都是基于網(wǎng)絡(luò)線上的,如果我們本地想自己部署一個(gè)自己的大語言模型,該如何操作呢,下面介紹一款可以在自己本地部署運(yùn)行的大語言模型Llama 2

Llama 2是一款開源的大語言模型,其中訓(xùn)練的數(shù)據(jù)目前已經(jīng)達(dá)到7B級(jí)別,在上下文長(zhǎng)度為4K下的單輪與多輪對(duì)話中表現(xiàn)出色,部署運(yùn)行Llama 2同時(shí)需要借助一個(gè)框架Ollama.

Ollama是一個(gè)強(qiáng)大的框架,設(shè)計(jì)用于在Docker容器中部署大型語言模型(LLM)。它的主要功能是簡(jiǎn)化在Docker容器內(nèi)部署和管理LLM的過程。Ollama通過提供簡(jiǎn)單的安裝指令,使用戶能夠輕松地在本地運(yùn)行大型開源語言模型.

借助Ollama 框架可以很方便運(yùn)行Llama2大語言模型,同時(shí),為了方便與模型進(jìn)行交互,還需要部署一個(gè)web交互 界面Chatbot-Ollama.

Chatbot-Ollama是一個(gè)基于Ollama框架的聊天機(jī)器人前端應(yīng)用。它利用Ollama框架提供的接口和功能,將大型語言模型(LLM)集成到聊天機(jī)器人中,使其能夠與用戶進(jìn)行交互,并提供各種聊天機(jī)器人服務(wù)。

Chatbot-Ollama 接入本地Ollama框架運(yùn)行的Llama2大語言模型,使我們可以很輕松簡(jiǎn)便在本地創(chuàng)建一個(gè)聊天機(jī)器人.Chatbot-Ollama 同時(shí)也是基于docker本地部署的,本地部署,只能局限于本地訪問,無法做到提供遠(yuǎn)程給其他人訪問,下面我們還需要安裝一個(gè)內(nèi)網(wǎng)穿透工具cpolar,使得本地聊天機(jī)器人可以被遠(yuǎn)程訪問.

Cpolar是一款強(qiáng)大的內(nèi)網(wǎng)穿透軟件,它能夠在多個(gè)操作系統(tǒng)上無縫運(yùn)行,包括Windows、MacOS和Linux,因此無論您使用哪種操作系統(tǒng),都可以輕松將本地內(nèi)網(wǎng)服務(wù)器的HTTP、HTTPS、TCP協(xié)議端口映射為公網(wǎng)地址端口,使得公網(wǎng)用戶可以輕松訪問您的內(nèi)網(wǎng)服務(wù),無需部署至公網(wǎng)服務(wù)器.

下面我們通過群暉Docker來演示如何結(jié)合上面介紹的技術(shù)來運(yùn)行一個(gè)自己的本地聊天機(jī)器人并且發(fā)布到公網(wǎng)訪問.本地部署,對(duì)設(shè)備配置要求高一些,如果想要擁有比較好的體驗(yàn),可以使用高配置的服務(wù)器設(shè)備.

1. 拉取相關(guān)的Docker鏡像

運(yùn)行Llama 2需要借助Ollama鏡像,對(duì)語言模型進(jìn)行交互需要用到Chatbot-Ollama前端界面,所以我們需要拉取這兩個(gè)docker鏡像,本例群暉版本由于無法直接在群暉控制面板docker界面搜索下載鏡像,所以采用命令行方式進(jìn)行鏡像下載,首先開啟群暉ssh連接,然后使用工具通過ssh連接上群暉,分別執(zhí)行下面docker命令 拉取

*拉取Ollama鏡像命令

sudo docker  pull ollama/ollama:latest

*拉取Chatbot-Ollama鏡像命令

sudo docker  pull ghcr.io/ivanfioravanti/chatbot-ollama:main

拉取成功后,我們可以在Docker界面看到拉取的兩個(gè)鏡像,下面開始運(yùn)行兩個(gè)鏡像,首先運(yùn)行ollama

docker ollama hf-mirror,docker,機(jī)器人,容器

2. 運(yùn)行Ollama 鏡像

選中鏡像,點(diǎn)擊運(yùn)行進(jìn)入配置界面,名稱無需設(shè)置,默認(rèn)即可,然后點(diǎn)擊下一步

docker ollama hf-mirror,docker,機(jī)器人,容器

輸入外部訪問的端口,和容器內(nèi)部端口一致,填寫11434即可,然后點(diǎn)擊下一步

docker ollama hf-mirror,docker,機(jī)器人,容器

然后點(diǎn)擊完成即可運(yùn)行ollama

docker ollama hf-mirror,docker,機(jī)器人,容器

運(yùn)行后,打開容器界面,可以看到運(yùn)行的服務(wù),下面開始下載運(yùn)行Llama 2模型,點(diǎn)擊選中ollama容器,點(diǎn)擊操作

docker ollama hf-mirror,docker,機(jī)器人,容器

然后打開終端機(jī),進(jìn)入終端命令界面

docker ollama hf-mirror,docker,機(jī)器人,容器

然后選擇左邊新增一個(gè)bash命令界面

docker ollama hf-mirror,docker,機(jī)器人,容器

然后在bash命令界面,執(zhí)行ollama run llama2命令,接著等待下載即可,最后出現(xiàn)success,表示下載運(yùn)行Llama 2模型成功,下載完成后可以關(guān)閉掉窗口.這樣ollama 容器啟動(dòng),并運(yùn)行Llama 2模型就成功了,下面運(yùn)行chatbot-ollama鏡像,配置前端交互界面

docker ollama hf-mirror,docker,機(jī)器人,容器

3. 運(yùn)行Chatbot Ollama鏡像

選中我們下載的鏡像,點(diǎn)擊運(yùn)行,開始進(jìn)行設(shè)置

docker ollama hf-mirror,docker,機(jī)器人,容器

名稱可以默認(rèn),直接點(diǎn)擊下一步

docker ollama hf-mirror,docker,機(jī)器人,容器

設(shè)置對(duì)外端口,本例設(shè)置3001,具體可以自己自定義,這個(gè)端口也是我們?yōu)g覽器上web訪問的端口

docker ollama hf-mirror,docker,機(jī)器人,容器

然后設(shè)置一個(gè)環(huán)境變量,該變量就是連接我們上面運(yùn)行Ollama框架服務(wù)的地址,我們?cè)O(shè)置本地地址:http://群暉局域網(wǎng)IP:11434即可,設(shè)置完成點(diǎn)擊下一步,然后直接點(diǎn)擊完成即可,chatbot Ollama鏡像就運(yùn)行成功了,接下來我們進(jìn)行本地訪問.

docker ollama hf-mirror,docker,機(jī)器人,容器

4. 本地訪問

上面我們運(yùn)行設(shè)置chatbot ollama 的對(duì)外端口是3001(具體以自己設(shè)置的為準(zhǔn)),下面我們?cè)跒g覽器訪問群暉3001端口,既可看到我們的web交互 界面,同時(shí),上面顯示了使用的llama2模型,下面輸入文字即可對(duì)話,這樣一個(gè)本地部署的機(jī)器人就完成了,對(duì)話的響應(yīng)速度取決于設(shè)備的配置,盡量使用高配置的服務(wù)器運(yùn)行部署哦,本地完成后,我們接下來設(shè)置遠(yuǎn)程也可以訪問,下面安裝cpolar工具,實(shí)現(xiàn)無公網(wǎng)IP也可以遠(yuǎn)程訪問我們的聊天機(jī)器人界面!

docker ollama hf-mirror,docker,機(jī)器人,容器

5. 群暉安裝Cpolar

點(diǎn)擊下面Cpolar群暉套件下載地址,下載相應(yīng)版本的群暉Cpolar套件

https://www.cpolar.com/synology-cpolar-suite,

docker ollama hf-mirror,docker,機(jī)器人,容器

打開群暉套件中心,點(diǎn)擊右上角的手動(dòng)安裝按鈕。

docker ollama hf-mirror,docker,機(jī)器人,容器

選擇我們本地下載好的cpolar套件安裝包,然后點(diǎn)擊下一步

docker ollama hf-mirror,docker,機(jī)器人,容器

點(diǎn)擊同意按鈕,然后點(diǎn)擊下一步

docker ollama hf-mirror,docker,機(jī)器人,容器

最后點(diǎn)擊完成即可。

docker ollama hf-mirror,docker,機(jī)器人,容器

安裝完成后,在外部瀏覽器,我們通過群暉的局域網(wǎng)ip地址9200端口訪問Cpolar的Web管理界面,然后輸入Cpolar郵箱賬號(hào)與密碼進(jìn)行登錄

docker ollama hf-mirror,docker,機(jī)器人,容器

6. 配置公網(wǎng)地址

點(diǎn)擊左側(cè)儀表盤的隧道管理——?jiǎng)?chuàng)建隧道,創(chuàng)建一個(gè)chatbot的公網(wǎng)地址隧道!

  • 隧道名稱:可自定義命名,注意不要與已有的隧道名稱重復(fù)
  • 協(xié)議:選擇http
  • 本地地址:3001 (本地訪問的端口)
  • 域名類型:免費(fèi)選擇隨機(jī)域名
  • 地區(qū):選擇China

點(diǎn)擊創(chuàng)建

docker ollama hf-mirror,docker,機(jī)器人,容器

隧道創(chuàng)建成功后,點(diǎn)擊左側(cè)的狀態(tài)——在線隧道列表,查看所生成的公網(wǎng)訪問地址,有兩種訪問方式,一種是http 和https,下面我們使用生成的http地址訪問

docker ollama hf-mirror,docker,機(jī)器人,容器

7. 公網(wǎng)訪問

使用上面cpolar生成的http地址,在瀏覽器訪問,同樣可以看到聊天機(jī)器人主界面,公網(wǎng)地址訪問成功,無需公網(wǎng)IP,無需云服務(wù)器,即可把我們本地聊天機(jī)器人發(fā)布到公網(wǎng)進(jìn)行訪問!

docker ollama hf-mirror,docker,機(jī)器人,容器

小結(jié)

為了更好地演示,我們?cè)谇笆鲞^程中使用了cpolar生成的隧道,其公網(wǎng)地址是隨機(jī)生成的。

這種隨機(jī)地址的優(yōu)勢(shì)在于建立速度快,可以立即使用。然而,它的缺點(diǎn)是網(wǎng)址由隨機(jī)字符生成,不太容易記憶(例如:3ad5da5.r10.cpolar.top)。另外,這個(gè)地址在24小時(shí)內(nèi)會(huì)發(fā)生隨機(jī)變化,更適合于臨時(shí)使用。

我一般會(huì)使用固定二級(jí)子域名,原因是我希望將網(wǎng)址發(fā)送給同事或客戶時(shí),它是一個(gè)固定、易記的公網(wǎng)地址(例如:chatbot.cpolar.cn),這樣更顯正式,便于流交協(xié)作。

8. 固定公網(wǎng)地址

由于以上使用Cpolar所創(chuàng)建的隧道使用的是隨機(jī)公網(wǎng)地址,24小時(shí)內(nèi)會(huì)隨機(jī)變化,不利于長(zhǎng)期遠(yuǎn)程訪問。因此我們可以為其配置二級(jí)子域名,該地址為固定地址,不會(huì)隨機(jī)變化【ps:cpolar.cn已備案】

注意需要將cpolar套餐升級(jí)至基礎(chǔ)套餐或以上,且每個(gè)套餐對(duì)應(yīng)的帶寬不一樣?!綾polar.cn已備案】

登錄cpolar官網(wǎng),點(diǎn)擊左側(cè)的預(yù)留,選擇保留二級(jí)子域名,設(shè)置一個(gè)二級(jí)子域名名稱,點(diǎn)擊保留,保留成功后復(fù)制保留的二級(jí)子域名名稱

docker ollama hf-mirror,docker,機(jī)器人,容器

保留成功后復(fù)制保留成功的二級(jí)子域名的名稱

docker ollama hf-mirror,docker,機(jī)器人,容器

返回登錄Cpolar web UI管理界面,點(diǎn)擊左側(cè)儀表盤的隧道管理——隧道列表,找到所要配置的隧道,點(diǎn)擊右側(cè)的編輯

docker ollama hf-mirror,docker,機(jī)器人,容器

修改隧道信息,將保留成功的二級(jí)子域名配置到隧道中

  • 域名類型:選擇二級(jí)子域名
  • Sub Domain:填寫保留成功的二級(jí)子域名

點(diǎn)擊更新(注意,點(diǎn)擊一次更新即可,不需要重復(fù)提交)

docker ollama hf-mirror,docker,機(jī)器人,容器

更新完成后,打開在線隧道列表,此時(shí)可以看到公網(wǎng)地址已經(jīng)發(fā)生變化,地址名稱也變成了固定的二級(jí)子域名的名稱域名

docker ollama hf-mirror,docker,機(jī)器人,容器

最后,我們使用固定的公網(wǎng)http地址訪問,可以看到同樣訪問成功,這樣一個(gè)固定且永久不變的公網(wǎng)地址就設(shè)置好了!

docker ollama hf-mirror,docker,機(jī)器人,容器文章來源地址http://www.zghlxwxcb.cn/news/detail-848195.html

到了這里,關(guān)于如何在群暉Docker運(yùn)行本地聊天機(jī)器人并結(jié)合內(nèi)網(wǎng)穿透發(fā)布到公網(wǎng)訪問的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 一文搞懂如何在群暉NAS中使用cpolar實(shí)現(xiàn)【內(nèi)網(wǎng)穿透】

    一文搞懂如何在群暉NAS中使用cpolar實(shí)現(xiàn)【內(nèi)網(wǎng)穿透】

    今天,我們來為大家介紹,如何在群暉系統(tǒng)中,使用圖形化界面的cpolar。 cpolar 經(jīng)過圖形化改造后,使用方法已經(jīng)簡(jiǎn)便了很多,基本與其他應(yīng)用軟件無異,都是根據(jù)需要,點(diǎn)擊軟件界面中不同的按鈕,以實(shí)現(xiàn)不同的功能。當(dāng)然,在正式使用前,仍需要對(duì)cpolar進(jìn)行一些必要的設(shè)

    2024年02月15日
    瀏覽(16)
  • ChatGPT聊天機(jī)器人如何發(fā)圖片????

    ChatGPT聊天機(jī)器人如何發(fā)圖片????

    問題一、怎么讓聊天機(jī)器人ChatGPT回復(fù)你一張圖片? 有問題可以在評(píng)論區(qū)留言。

    2024年02月11日
    瀏覽(28)
  • LLM本地知識(shí)庫(kù)問答系統(tǒng)(一):使用LangChain和LlamaIndex從零構(gòu)建PDF聊天機(jī)器人指南

    LLM本地知識(shí)庫(kù)問答系統(tǒng)(一):使用LangChain和LlamaIndex從零構(gòu)建PDF聊天機(jī)器人指南

    ? ? ? ?隨著大型語言模型(LLM)(如ChatGPT和GPT-4)的興起,現(xiàn)在比以往任何時(shí)候都更容易構(gòu)建比普通熊更智能的智能聊天機(jī)器人,并且可以瀏覽堆積如山的文檔,為您的輸入提供準(zhǔn)確的響應(yīng)。 ? ? ? ?在本系列中,我們將探索如何使用pre-trained的LLM創(chuàng)建一個(gè)聊天機(jī)器人,該聊

    2024年02月11日
    瀏覽(99)
  • 筆記本電腦上的聊天機(jī)器人: 在英特爾 Meteor Lake 上運(yùn)行 Phi-2

    對(duì)應(yīng)于其強(qiáng)大的能力,大語言模型 (LLM) 需要強(qiáng)大的算力支撐,而個(gè)人計(jì)算機(jī)上很難滿足這一需求。因此,我們別無選擇,只能將它們部署至由本地或云端托管的性能強(qiáng)大的定制 AI 服務(wù)器上。 如果我們可以在典配個(gè)人計(jì)算機(jī)上運(yùn)行最先進(jìn)的開源 LLM 會(huì)如何?好處簡(jiǎn)直太多了:

    2024年04月17日
    瀏覽(13)
  • AI聊天-如何將消息發(fā)送給機(jī)器人 第4集

    AI聊天-如何將消息發(fā)送給機(jī)器人 第4集

    上一篇我們講解了如何讓我們的消息發(fā)送框懸浮在固定位置,本編講為大家講解如何講消息發(fā)送給機(jī)器人,這里需要用到http請(qǐng)求,后端需要提供對(duì)應(yīng)的接口 1、服務(wù)端代碼已為大家準(zhǔn)備好,請(qǐng)參考springboot的使用技巧 2、測(cè)試頁面源碼,請(qǐng)參考從零開始搭建AI聊天 1、集成 sse客戶端

    2024年01月16日
    瀏覽(32)
  • FANUC機(jī)器人實(shí)現(xiàn)本地自動(dòng)運(yùn)行的相關(guān)配置和參數(shù)設(shè)置

    FANUC機(jī)器人實(shí)現(xiàn)本地自動(dòng)運(yùn)行的相關(guān)配置和參數(shù)設(shè)置

    具體步驟可參考如下內(nèi)容 : 如下圖所示,按下MENU鍵,選擇下一頁, 如下圖所示,找到系統(tǒng)—配置,enter回車進(jìn)入, 如下圖所示,在系統(tǒng)—配置中,按下item鍵,輸入43,找到第43項(xiàng), 如下圖所示,找到第43項(xiàng):遠(yuǎn)程-本地設(shè)置后,按下F4選擇,選擇2本地,enter回車確認(rèn), 如下圖

    2024年02月16日
    瀏覽(102)
  • 如何使用OpenAI API和Python SDK構(gòu)建自己的聊天機(jī)器人

    如何使用OpenAI API和Python SDK構(gòu)建自己的聊天機(jī)器人

    近日,OpenAI公司的ChatGPT模型走紅網(wǎng)絡(luò)。同時(shí),OpenAI也推出了Chat API和gpt-3.5-turbo模型,讓開發(fā)者能夠更輕松地使用與ChatGPT類似的自然語言處理模型。 通過OpenAI API,我們可以使用gpt-3.5-turbo模型,實(shí)現(xiàn)多種任務(wù),包括:撰寫電子郵件或其他文本內(nèi)容,編寫Python代碼,創(chuàng)建對(duì)話代

    2024年02月01日
    瀏覽(49)
  • 以貓盤為例,手把手教你怎么在群暉DSM7.2正式版ARM64機(jī)型中安裝Container Manager (Docker)

    以貓盤為例,手把手教你怎么在群暉DSM7.2正式版ARM64機(jī)型中安裝Container Manager (Docker)

    系統(tǒng)版本沒有問題之后,我們就可以開始安裝Container Manager (Docker)了。 ??安裝前的準(zhǔn)備: ??正式安裝之前我們先去群暉官網(wǎng)下載Container Manager (Docker)的離線安裝包。為什么需要下載離線安裝包?因?yàn)槲覀冎苯釉谔准行氖撬阉鞑坏搅?,所以也無法通過套件中心來安裝。 ??打

    2024年02月12日
    瀏覽(22)
  • Bard:谷歌推出聊天機(jī)器人,與百度文心一言、ChatGPT和New Bing比較如何?

    自從谷歌在GPT-4發(fā)布一周后推出了聊天機(jī)器人Bard以來,人工智能行業(yè)再次迎來了一場(chǎng)巨變。Bard目前已經(jīng)開啟內(nèi)測(cè),作為一款聊天機(jī)器人,它受到了業(yè)界的廣泛關(guān)注。在此之前,百度的文心一言、OpenAI的ChatGPT和微軟的New Bing也引發(fā)了廣泛討論。那么,谷歌的Bard與這些聊天機(jī)器

    2024年02月13日
    瀏覽(27)
  • 在Docker上運(yùn)行ROS(melodic版本)機(jī)器人項(xiàng)目

    在Docker上運(yùn)行ROS(melodic版本)機(jī)器人項(xiàng)目

    對(duì)于ROS機(jī)器人項(xiàng)目來說,運(yùn)行的環(huán)境可能各不相同,有的需要在Ubuntu18.04下運(yùn)行,有的需要在Ubuntu20.04下運(yùn)行。 運(yùn)行環(huán)境的改變,產(chǎn)生使用Docker配置環(huán)境的需求 。本人 以港科大FUEL的項(xiàng)目為例,嘗試在Docker上安裝ROS-Melodic,并運(yùn)行該無人機(jī)項(xiàng)目 。在本文中,會(huì)引用到很多的鏈

    2024年02月07日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包