国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn)

這篇具有很好參考價(jià)值的文章主要介紹了Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

前言

本文主要介紹如何在Windows系統(tǒng)快速部署Ollama開(kāi)源大語(yǔ)言模型運(yùn)行工具,并安裝Open WebUI結(jié)合cpolar內(nèi)網(wǎng)穿透軟件,實(shí)現(xiàn)在公網(wǎng)環(huán)境也能訪(fǎng)問(wèn)你在本地內(nèi)網(wǎng)搭建的大語(yǔ)言模型運(yùn)行環(huán)境。

近些年來(lái)隨著ChatGPT的興起,大語(yǔ)言模型 LLM(Large Language Model)也成為了人工智能AI領(lǐng)域的熱門(mén)話(huà)題,很多大廠(chǎng)也都推出了自己的大語(yǔ)言模型,并或多或少的開(kāi)源了自己的大語(yǔ)言模型,今天就來(lái)分享一個(gè)最近很火,且對(duì)于小白來(lái)說(shuō)比較好上手本地部署的運(yùn)行本地LLM的工具Ollama。

在本地運(yùn)行大語(yǔ)言模型有諸多優(yōu)點(diǎn):

比如可以保護(hù)隱私、不會(huì)產(chǎn)生費(fèi)用、可以無(wú)視網(wǎng)絡(luò)問(wèn)題可以嘗鮮各種開(kāi)源模型等等。

Ollama支持當(dāng)前主要的開(kāi)源大模型, 比如llama2、千文qwen、mistral等,可以在Windows、Linux、MacOS系統(tǒng)上進(jìn)行部署。穩(wěn)定性和便利性都非常不錯(cuò),下面就來(lái)分享一下它在Windows系統(tǒng)上的安裝與應(yīng)用。

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

1. 運(yùn)行Ollama

本文安裝環(huán)境為:Windows10專(zhuān)業(yè)版

下載: Ollama下載地址:https://ollama.com/download

在下載頁(yè)面點(diǎn)擊Windows,然后點(diǎn)擊下載按鈕。

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

安裝: 下載完成后,雙擊下載的安裝程序。

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

點(diǎn)擊Install進(jìn)行安裝。

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

安裝完成沒(méi)有提示,我們打開(kāi)一個(gè)終端,本文以Windows PowerShell為例,大家也可以使用其他的:

現(xiàn)在Ollama已經(jīng)安裝完了,我們需要在終端中輸入下方命令運(yùn)行一個(gè)大語(yǔ)言模型進(jìn)行測(cè)試,這里以對(duì)在中文方面表現(xiàn)相對(duì)好些的千問(wèn)為例,大家也可以使用其他的模型。

ollama run qwen

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

可以看到,系統(tǒng)正在下載qwen的模型(并保存在C盤(pán),C:\Users<username>.ollama\models 如果想更改默認(rèn)路徑,可以通過(guò)設(shè)置OLLAMA_MODELS進(jìn)行修改,然后重啟終端,重啟ollama服務(wù)。)

setx OLLAMA_MODELS "D:\ollama_model"

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

模型下載完成后,我們就可以在終端中輸入問(wèn)題進(jìn)行使用了:

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

至此,在Windows本地部署ollama并運(yùn)行qwen大語(yǔ)言模型就已經(jīng)完成了。一鍵搞定,對(duì)新手體驗(yàn)大語(yǔ)言模型真的非常友好。

2. 安裝Open WebUI

不過(guò),我們現(xiàn)在只能在終端中使用,操作界面可能不像ChatGPT那樣美觀(guān),如果能使用web頁(yè)面進(jìn)行交互,使用體驗(yàn)更好,也能保留之前的聊天記錄,翻遍我們翻閱查詢(xún)。

針對(duì)這個(gè)情況,我們可以在Windows上部署Open WebUI這個(gè)項(xiàng)目來(lái)實(shí)現(xiàn)類(lèi)似chatgpt一樣的交互界面。

本教程以O(shè)pen WebUI這個(gè)項(xiàng)目為例,它以前的名字就叫 Formerly Ollama WebUI??梢岳斫鉃橐婚_(kāi)始就是專(zhuān)門(mén)適配Ollama的WebUI,它的界面也對(duì)用慣了chatgpt的小伙伴來(lái)說(shuō)更相似一些。當(dāng)然,大家也可以選擇其他的WebUI,之后有機(jī)會(huì)也可以分享給大家。

如何在Windows系統(tǒng)安裝Open WebUI:

2.1 在Windows系統(tǒng)安裝Docker

首先,如果大家之前未安裝過(guò)Docker,需要執(zhí)行下面三個(gè)步驟進(jìn)行安裝:

第一步:?jiǎn)?dòng)Hyper-v

打開(kāi)控制面板,在程序與功能頁(yè)面選擇啟用或Windows功能

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

勾選Hyper-V、虛擬機(jī)平臺(tái)、Linux子系統(tǒng)并點(diǎn)擊確認(rèn)

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

然后,重啟計(jì)算機(jī)。

第二步:安裝WSL

打開(kāi) powershell,以管理員的身份啟動(dòng)命令窗口,輸入

wsl --update

安裝

wsl --install
Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

然后再次重啟電腦。

第三步:訪(fǎng)問(wèn)Docker官網(wǎng)進(jìn)行下載

點(diǎn)擊下載鏈接:https://docs.docker.com/desktop/install/windows-install/

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

選擇Windows最新版本:

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

下載完成后,雙擊安裝程序進(jìn)行安裝,如果是第一次安裝,安裝后會(huì)提示重啟電腦,重啟后點(diǎn)擊桌面的Docker Desktop圖標(biāo):選擇先不注冊(cè)直接登錄即可。

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

打開(kāi)Docker Desktop后,左下角顯示是綠色的running就代表我們成功了:

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

視頻安裝教程:

【Docker教程】如何在Windows系統(tǒng)安裝Docker

2.2 使用Docker部署Open WebUI

在Open WebUI的github頁(yè)面 https://github.com/open-webui/open-webui 可以看到,如果你的Ollama和Open WebUI在同一臺(tái)主機(jī),那使用下面顯示的這一行命令就可以在本地快速進(jìn)行部署:

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

現(xiàn)在我們打開(kāi)終端,比如powershell,然后輸入docker,回車(chē)

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

可以看到這個(gè)命令成功運(yùn)行,說(shuō)明docker安裝成功。

然后將上邊在docker中部署Open WebUI的命令復(fù)制后粘貼到終端中,回車(chē)。

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

然后等待安裝完畢即可:如下圖所示

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

安裝完成后,在Docker Desktop中可以看到Open WebUI的web界面地址為:https://localhost:3000

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

點(diǎn)擊后,會(huì)在瀏覽器打開(kāi)登錄界面:

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

點(diǎn)擊sign up注冊(cè),賬號(hào),郵箱,密碼記好,下次登錄時(shí)需要用到郵箱和密碼登錄:

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

然后點(diǎn)擊create account創(chuàng)建賬號(hào)即可:然后就能在瀏覽器中使用類(lèi)似chatgpt界面的Open WebUI了!

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

點(diǎn)擊右上角的設(shè)置,可以修改當(dāng)前界面的語(yǔ)言為簡(jiǎn)體中文:然后點(diǎn)擊保存即可。

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

點(diǎn)擊上方選擇一個(gè)模型旁邊的加號(hào)+可以增加大模型,點(diǎn)擊下拉按鈕可以選擇當(dāng)前使用哪一個(gè)已安裝的模型,接下來(lái)就可以愉快的跟ai聊天了!

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

3. 安裝內(nèi)網(wǎng)穿透工具

至此,我們已經(jīng)成功完成在本地Windows系統(tǒng)使用Docker部署Open WebUI與Ollama大模型工具進(jìn)行交互了!但如果想實(shí)現(xiàn)出門(mén)在外,也能隨時(shí)隨地使用Ollama Open WebUI,那就需要借助cpolar內(nèi)網(wǎng)穿透工具來(lái)實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn)了!接下來(lái)介紹一下如何安裝cpolar內(nèi)網(wǎng)穿透并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn)!

下面是安裝cpolar步驟:

cpolar官網(wǎng)地址: https://www.cpolar.com

點(diǎn)擊進(jìn)入cpolar官網(wǎng),點(diǎn)擊免費(fèi)使用注冊(cè)一個(gè)賬號(hào),并下載最新版本的cpolar

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

登錄成功后,點(diǎn)擊下載cpolar到本地并安裝(一路默認(rèn)安裝即可)本教程選擇下載Windows版本。

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

cpolar安裝成功后,在瀏覽器上訪(fǎng)問(wèn)http://localhost:9200,使用cpolar賬號(hào)登錄,登錄后即可看到cpolar web 配置界面,結(jié)下來(lái)在web 管理界面配置即可。

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

接下來(lái)配置一下 Open WebUI 的公網(wǎng)地址,

登錄后,點(diǎn)擊左側(cè)儀表盤(pán)的隧道管理——?jiǎng)?chuàng)建隧道,

創(chuàng)建一個(gè) ollama1 的公網(wǎng)http地址隧道:

  • 隧道名稱(chēng):ollama1(可自定義命名,注意不要與已有的隧道名稱(chēng)重復(fù))
  • 協(xié)議:選擇http
  • 本地地址:3000 (本地訪(fǎng)問(wèn)的地址)
  • 域名類(lèi)型:免費(fèi)選擇隨機(jī)域名
  • 地區(qū):選擇China Top

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

隧道創(chuàng)建成功后,點(diǎn)擊左側(cè)的狀態(tài)——在線(xiàn)隧道列表,查看所生成的公網(wǎng)訪(fǎng)問(wèn)地址,有兩種訪(fǎng)問(wèn)方式,一種是http 和https:

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

使用上面的任意一個(gè)公網(wǎng)地址,在手機(jī)或任意設(shè)備的瀏覽器進(jìn)行登錄訪(fǎng)問(wèn),即可成功看到 Open WebUI 界面,這樣一個(gè)公網(wǎng)地址且可以遠(yuǎn)程訪(fǎng)問(wèn)就創(chuàng)建好了,使用了cpolar的公網(wǎng)域名,無(wú)需自己購(gòu)買(mǎi)云服務(wù)器,即可到公網(wǎng)訪(fǎng)問(wèn) Open WebUI 了!

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

小結(jié)

如果我們需要長(zhǎng)期異地遠(yuǎn)程訪(fǎng)問(wèn)Open WebUI,由于剛才創(chuàng)建的是隨機(jī)的地址,24小時(shí)會(huì)發(fā)生變化。另外它的網(wǎng)址是由隨機(jī)字符生成,不容易記憶。如果想把域名變成固定的二級(jí)子域名,并且不想每次都重新創(chuàng)建隧道來(lái)訪(fǎng)問(wèn)Open WebUI,我們可以選擇創(chuàng)建一個(gè)固定的公網(wǎng)地址來(lái)解決這個(gè)問(wèn)題。

4. 創(chuàng)建固定公網(wǎng)地址

我們接下來(lái)為其配置固定的HTTP端口地址,該地址不會(huì)變化,方便分享給別人長(zhǎng)期查看你部署的項(xiàng)目,而無(wú)需每天重復(fù)修改服務(wù)器地址。

配置固定http端口地址需要將cpolar升級(jí)到專(zhuān)業(yè)版套餐或以上。

登錄cpolar官網(wǎng),點(diǎn)擊左側(cè)的預(yù)留,選擇保留二級(jí)子域名,設(shè)置一個(gè)二級(jí)子域名名稱(chēng),點(diǎn)擊保留,保留成功后復(fù)制保留的二級(jí)子域名名稱(chēng)

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

保留成功后復(fù)制保留成功的二級(jí)子域名的名稱(chēng):myollama,大家也可以設(shè)置自己喜歡的名稱(chēng)。

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

返回登錄Cpolar web UI管理界面,點(diǎn)擊左側(cè)儀表盤(pán)的隧道管理——隧道列表,找到所要配置的隧道:ollama1,點(diǎn)擊右側(cè)的編輯:

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

修改隧道信息,將保留成功的二級(jí)子域名配置到隧道中

  • 域名類(lèi)型:選擇二級(jí)子域名
  • Sub Domain:填寫(xiě)保留成功的二級(jí)子域名:myollama

點(diǎn)擊更新(注意,點(diǎn)擊一次更新即可,不需要重復(fù)提交)

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

更新完成后,打開(kāi)在線(xiàn)隧道列表,此時(shí)可以看到公網(wǎng)地址已經(jīng)發(fā)生變化,地址名稱(chēng)也變成了固定的二級(jí)子域名名稱(chēng)的域名:

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端

最后,我們使用固定的公網(wǎng)https地址訪(fǎng)問(wèn),可以看到訪(fǎng)問(wèn)成功,這樣一個(gè)固定且永久不變的公網(wǎng)地址就設(shè)置好了,可以隨時(shí)隨地在公網(wǎng)環(huán)境異地訪(fǎng)問(wèn)本地部署的 Open WebUI 了!

Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn),cpolar,windows,語(yǔ)言模型,前端
以上就是如何在Windows系統(tǒng)本地安裝Ollama大模型工具并使用docker部署Open WebUI,結(jié)合cpolar內(nèi)網(wǎng)穿透工具實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn)本地LLM,并配置固定不變的二級(jí)子域名公網(wǎng)地址實(shí)現(xiàn)遠(yuǎn)程訪(fǎng)問(wèn)的全部流程,感謝您的觀(guān)看,有任何問(wèn)題歡迎留言交流。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-853383.html

到了這里,關(guān)于Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪(fǎng)問(wèn)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀(guān)點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 不需要本地部署大模型,modelscope-agent加qwen-max免費(fèi)搭建自己的定制機(jī)器人

    最近阿里開(kāi)源了通用大模型qwen-72b,正在為怎么本地化部署發(fā)愁,轉(zhuǎn)眼看到提供了qwen-max相關(guān)接口的免費(fèi)試用(據(jù)說(shuō)就是基于qwen-72b大模型),這就來(lái)體驗(yàn)一番。 開(kāi)通阿里云靈積平臺(tái),并創(chuàng)建api-key python:3.10+; pydantic 2.0以上,老版本pydantic會(huì)報(bào)一個(gè)tool_schema.model_dump_json的函數(shù)錯(cuò)誤

    2024年01月25日
    瀏覽(22)
  • 中文大語(yǔ)言模型 Llama-2 7B(或13B) 本地化部署 (國(guó)內(nèi)云服務(wù)器、GPU單卡16GB、中文模型、WEB頁(yè)面TextUI、簡(jiǎn)單入門(mén))

    中文大語(yǔ)言模型 Llama-2 7B(或13B) 本地化部署 (國(guó)內(nèi)云服務(wù)器、GPU單卡16GB、中文模型、WEB頁(yè)面TextUI、簡(jiǎn)單入門(mén))

    ? ? ? ? 本文目的是讓大家先熟悉模型的部署,簡(jiǎn)單入門(mén);所以只需要很小的算力,單臺(tái)服務(wù)器 單GPU顯卡(顯存不低于12GB),操作系統(tǒng)需要安裝 Ubuntu 18.04。 ? ? ? ? 準(zhǔn)備一臺(tái)服務(wù)器 單張英偉達(dá)GPU顯卡(顯存不低于12GB),操作系統(tǒng)需要安裝 Ubuntu 18.04 (具體安裝過(guò)程忽略)

    2024年02月08日
    瀏覽(21)
  • Ollama管理本地開(kāi)源大模型,用Open WebUI訪(fǎng)問(wèn)Ollama接口

    Ollama管理本地開(kāi)源大模型,用Open WebUI訪(fǎng)問(wèn)Ollama接口

    現(xiàn)在開(kāi)源大模型一個(gè)接一個(gè)的,而且各個(gè)都說(shuō)自己的性能非常厲害,但是對(duì)于我們這些使用者,用起來(lái)就比較尷尬了。因?yàn)橐粋€(gè)模型一個(gè)調(diào)用的方式,先得下載模型,下完模型,寫(xiě)加載代碼,麻煩得很。 對(duì)于程序的規(guī)范來(lái)說(shuō),只要東西一多,我們就需要一個(gè)集中管理的平臺(tái),

    2024年03月26日
    瀏覽(23)
  • openWebUI+ollama&windows+不用docker+webLite本地安裝

    openWebUI+ollama&windows+不用docker+webLite本地安裝

    總結(jié)一下安裝教程 10核CPU 16G內(nèi)存 兩個(gè)web框架都可以,先說(shuō)簡(jiǎn)單的 ollama-webui-lite( https://github.com/ollama-webui/ollama-webui-lite ) 輕量級(jí),只使用nodejs 先裝 https://ollama.com/download 新建文件夾 E:ProjolloamaModsSav ,cmd進(jìn)入該目錄 ollama run llama3,那么就會(huì)直接下載該模型到該目錄下,在blob

    2024年04月27日
    瀏覽(27)
  • 如何試用 Ollama 運(yùn)行本地模型 Mac M2

    如何試用 Ollama 運(yùn)行本地模型 Mac M2

    首先下載 Ollama 安裝完成之后,啟動(dòng) ollma 對(duì)應(yīng)的模型,這里用的是 qwen:7b 命令與模型直接交互 我的機(jī)器配置是M2 Pro/ 32G,運(yùn)行 7b 模型毫無(wú)壓力,而且推理時(shí)是用 GPU 進(jìn)行運(yùn)算的,可能就是 Ollama 底層是用 llama C++ 實(shí)現(xiàn)的,底層做了性能優(yōu)化,對(duì) Mac特別友好。 純C/C++實(shí)現(xiàn),沒(méi)有

    2024年04月10日
    瀏覽(26)
  • 使用Ollama在本地運(yùn)行AI大模型gemma

    使用Ollama在本地運(yùn)行AI大模型gemma

    本次本人用到的軟件匯總:百度網(wǎng)盤(pán)下載 https://github.com/ollama/ollama/releases 我的電腦-右鍵-屬性-系統(tǒng)-高級(jí)系統(tǒng)設(shè)置-環(huán)境變量-【系統(tǒng)環(huán)境變量】新建 變量名:OLLAMA_MODELS (固定變量名) 變量值:E:OllamaLib (寫(xiě)自己要存放的路徑) 先配置好這個(gè)變量,這個(gè)是ollama的存儲(chǔ)路徑。

    2024年04月25日
    瀏覽(31)
  • Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國(guó)

    Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國(guó)

    網(wǎng)址:https://ollama.com/ 支持macOS、Linux和Windows多個(gè)平臺(tái) 1. 常用指令 2. 鏈接 Blog:https://ollama.com/blog Docs:https://github.com/ollama/ollama/tree/main/docs GitHub:https://github.com/ollama/ollama 模型倉(cāng)庫(kù) :https://ollama.com/library 以L(fǎng)lama 3為例 自動(dòng)安裝latest的版本是8B 4-bit模型,信息如下: 如果是70B模

    2024年04月27日
    瀏覽(18)
  • Stable Diffusion Web UI + Anaconda環(huán)境 + 本地Windows系統(tǒng)部署

    Stable Diffusion Web UI + Anaconda環(huán)境 + 本地Windows系統(tǒng)部署

    最近的很多AIGC模型層出不窮,Stable Diffusion 模型作為一個(gè)開(kāi)源的熱門(mén)生成式模型,或許對(duì)未來(lái)的各行各業(yè)都能產(chǎn)生深遠(yuǎn)的影響,了解這個(gè)模型并會(huì)使用可能是很多人目前想要學(xué)習(xí)的,本篇博客還原了本人從0-1的一個(gè)安裝+部署過(guò)程,希望對(duì)屏幕前的各位讀者有用,謝謝!創(chuàng)作不

    2024年02月04日
    瀏覽(27)
  • 【通義千問(wèn)】大模型Qwen GitHub開(kāi)源工程學(xué)習(xí)筆記(3)-- 通過(guò)Qwen預(yù)訓(xùn)練語(yǔ)言模型自動(dòng)完成給定的文本

    本筆記分析了使用預(yù)訓(xùn)練的模型生成文本的示例代碼。它的步驟如下: 使用已加載的分詞器 tokenizer 對(duì)輸入文本進(jìn)行處理,轉(zhuǎn)換為模型可以理解的格式。輸入文本是國(guó)家和首都的信息,最后一句是未完成的,需要模型來(lái)生成。 將處理后的輸入轉(zhuǎn)移到模型所在的設(shè)備上(例如

    2024年02月07日
    瀏覽(57)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包