openWebUI & ollama & windows & 不用docker & webLite 本地安裝
總結一下安裝教程
- 10核CPU
- 16G內存
兩個web框架都可以,先說簡單的 ollama-webui-lite(https://github.com/ollama-webui/ollama-webui-lite) 輕量級,只使用nodejs
先裝 https://ollama.com/download
新建文件夾 E:\Proj\olloamaModsSav ,cmd進入該目錄 ollama run llama3,那么就會直接下載該模型到該目錄下,在blobs目錄里面會出現(xiàn)這種文件
完了之后就會在cmd里可以進行問答,使用
部署這個webui 需要nodejs安裝,(有個坑,c盤根目錄需要一個package.json,可以通過命令初始化,如下)裝完之后
{
"name": "system32",
"version": "1.0.0",
"description": "",
"main": "index.js",
"scripts": {
"test": "echo \"Error: no test specified\" && exit 1"
},
"keywords": [],
"author": "",
"license": "ISC"
}
1. 部署WebUI(web-lite)(復制于 超越GPT-3.5!Llama3個人電腦本地部署教程 (ddhigh.com) )
打開終端,執(zhí)行以下命令部署WebUI:
git clone https://github.com/ollama-webui/ollama-webui-lite.git cd ollama-webui-lite npm install npm run dev
提示如下,WebUI已經在本地3000端口進行監(jiān)聽:
> ollama-webui-lite@0.0.1 dev
> vite dev --host --port 3000
VITE v4.5.2 ready in 765 ms
? Local: http://localhost:3000/
打開瀏覽器訪問http://localhost:3000,可以看到如下圖所示界面。默認情況下是沒有選擇模型的,需要點擊截圖所示箭頭處選擇模型。
上面就是部署完了,就能直接用了,ollama想下其他模型就在你剛才建的目錄下,打開cmd,再進行ollama -h 查看所有命令,ollama run xxx 就是直接下這模型跑起來,重點是你不在這個目錄下執(zhí)行,那就把模型給下到c盤 ./ollama/models里去了
2. openwebUI 部署
參考 llama3本地環(huán)境配置(Ollama+open-webui) - 知乎 (zhihu.com) Open-WebUI(原Ollama_WebUI)Windows上源碼安裝配置記錄 - 知乎 (zhihu.com)等
不使用docker,因為我win系統(tǒng)怎么用docker( 麻 ) ( 麻煩 ) ( 就是不想用 )
對照這兩個教程,我是想用conda安,而不是直接用pyhton,我也不想把python放到環(huán)境變量里,于是就遇到很多坑…
當你做到這一步:
推薦的使用Docker,可是以我的經驗,這種docker通常都非常的大。所以我準備用源碼安裝。
文檔地址:https://docs.openwebui.com/getting-started/
我的具體步驟,大部分按文檔操作,在pip的時候增加了國內源,
`git clone https://github.com/open-webui/open-webui.git
cd open-webui/
Copying required .env file
cp -RPp .env.example .env
Building Frontend Using Node
npm i
npm run build
Serving Frontend with the Backend
cd ./backend
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt -U`
這個pip安裝,我是想用conda ,于是你要這樣操作
- 打開anaconda prompt ,
- 創(chuàng)建一個環(huán)境 python=3.11
- 進入你存放這個webui的目錄的
./backend
下面 - 試一試你用 是哪一個pip , 使用
where pip
- 如果發(fā)現(xiàn)不是你conda這個虛擬環(huán)境下的pip ,例如是c盤里某python下的pip,而你的conda虛擬環(huán)境在E盤莫env下面,請
conda install pip
(conda安裝不上的,報網絡錯誤的,試試鏡像源,) - 然后繼續(xù)看看
where pip
- 發(fā)現(xiàn)確實是你conda這個虛擬環(huán)境下的pip ,然后 別急,這是執(zhí)行
pip install
會給c盤拉屎 - 去修改pip緩存位置,自己在其他盤建個空文件夾 Python隨筆:改變Windows中 pip 的緩存位置與刪除 pip 緩存_c盤的pip文件夾可以刪除嗎-CSDN博客
pip config set global.cache-dir "D:\Programs\Python\Python36\pipcache"
- 執(zhí)行
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt -U
- 注意執(zhí)行這一步的時候就等完了,一直等到命令行彈出目錄來,別ctrl+c 人工結束了,等就完事 了
然后參加上面的教程的步驟,第二步不用動,第一步,這個地址是ollama的地址,端口要對上,不然openwebUI找不到
然后就啟動 ,還是那個目錄
start_windows.bat
(注意這里進去的時候在conda里,這個之前創(chuàng)的虛擬環(huán)境,這個目錄下進入,不然找不到包,因為你cmd默認用的是環(huán)境變量里那個python,或者就沒有Pyhton,例如:
**(py311olm) E:\Proj\web\ollama-openui\open-webui\backend>start_windows.bat
)**
如果出現(xiàn)缺包的,就是你過早的 ctrl+c 了,不行就刪了conda這個環(huán)境重來,比較省事 pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt -U
文章來源:http://www.zghlxwxcb.cn/news/detail-859754.html
這兩個都能使用,就是不知道為什么 openwebUI 比 weblite 這個慢的多,來個懂的說說??文章來源地址http://www.zghlxwxcb.cn/news/detail-859754.html
到了這里,關于openWebUI+ollama&windows+不用docker+webLite本地安裝的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!