国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

openWebUI+ollama&windows+不用docker+webLite本地安裝

這篇具有很好參考價值的文章主要介紹了openWebUI+ollama&windows+不用docker+webLite本地安裝。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

openWebUI & ollama & windows & 不用docker & webLite 本地安裝

總結一下安裝教程

  • 10核CPU
  • 16G內存

兩個web框架都可以,先說簡單的 ollama-webui-lite(https://github.com/ollama-webui/ollama-webui-lite) 輕量級,只使用nodejs

先裝 https://ollama.com/download

新建文件夾 E:\Proj\olloamaModsSav ,cmd進入該目錄 ollama run llama3,那么就會直接下載該模型到該目錄下,在blobs目錄里面會出現(xiàn)這種文件

openWebUI+ollama&windows+不用docker+webLite本地安裝,windows,docker,容器

完了之后就會在cmd里可以進行問答,使用

部署這個webui 需要nodejs安裝,(有個坑,c盤根目錄需要一個package.json,可以通過命令初始化,如下)裝完之后

{
  "name": "system32",
  "version": "1.0.0",
  "description": "",
  "main": "index.js",
  "scripts": {
    "test": "echo \"Error: no test specified\" && exit 1"
  },
  "keywords": [],
  "author": "",
  "license": "ISC"
}

1. 部署WebUI(web-lite)(復制于 超越GPT-3.5!Llama3個人電腦本地部署教程 (ddhigh.com)

打開終端,執(zhí)行以下命令部署WebUI:

git clone https://github.com/ollama-webui/ollama-webui-lite.git cd ollama-webui-lite npm install npm run dev

提示如下,WebUI已經在本地3000端口進行監(jiān)聽:

> ollama-webui-lite@0.0.1 dev
> vite dev --host --port 3000

  VITE v4.5.2  ready in 765 ms

  ?  Local:   http://localhost:3000/

打開瀏覽器訪問http://localhost:3000,可以看到如下圖所示界面。默認情況下是沒有選擇模型的,需要點擊截圖所示箭頭處選擇模型。

上面就是部署完了,就能直接用了,ollama想下其他模型就在你剛才建的目錄下,打開cmd,再進行ollama -h 查看所有命令,ollama run xxx 就是直接下這模型跑起來,重點是你不在這個目錄下執(zhí)行,那就把模型給下到c盤 ./ollama/models里去了

2. openwebUI 部署

參考 llama3本地環(huán)境配置(Ollama+open-webui) - 知乎 (zhihu.com) Open-WebUI(原Ollama_WebUI)Windows上源碼安裝配置記錄 - 知乎 (zhihu.com)等

不使用docker,因為我win系統(tǒng)怎么用docker( 麻 ) ( 麻煩 ) ( 就是不想用 )

對照這兩個教程,我是想用conda安,而不是直接用pyhton,我也不想把python放到環(huán)境變量里,于是就遇到很多坑…

當你做到這一步:

推薦的使用Docker,可是以我的經驗,這種docker通常都非常的大。所以我準備用源碼安裝。

文檔地址:https://docs.openwebui.com/getting-started/

我的具體步驟,大部分按文檔操作,在pip的時候增加了國內源,

`git clone https://github.com/open-webui/open-webui.git
cd open-webui/

Copying required .env file

cp -RPp .env.example .env

Building Frontend Using Node

npm i
npm run build

Serving Frontend with the Backend

cd ./backend
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt -U`

這個pip安裝,我是想用conda ,于是你要這樣操作

  1. 打開anaconda prompt ,
  2. 創(chuàng)建一個環(huán)境 python=3.11
  3. 進入你存放這個webui的目錄的./backend 下面
  4. 試一試你用 是哪一個pip , 使用 where pip
  5. 如果發(fā)現(xiàn)不是你conda這個虛擬環(huán)境下的pip ,例如是c盤里某python下的pip,而你的conda虛擬環(huán)境在E盤莫env下面,請 conda install pip (conda安裝不上的,報網絡錯誤的,試試鏡像源,)
  6. 然后繼續(xù)看看 where pip
  7. 發(fā)現(xiàn)確實是你conda這個虛擬環(huán)境下的pip ,然后 別急,這是執(zhí)行 pip install 會給c盤拉屎
  8. 去修改pip緩存位置,自己在其他盤建個空文件夾 Python隨筆:改變Windows中 pip 的緩存位置與刪除 pip 緩存_c盤的pip文件夾可以刪除嗎-CSDN博客 pip config set global.cache-dir "D:\Programs\Python\Python36\pipcache"
  9. 執(zhí)行 pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt -U
  10. 注意執(zhí)行這一步的時候就等完了,一直等到命令行彈出目錄來,別ctrl+c 人工結束了,等就完事 了

然后參加上面的教程的步驟,第二步不用動,第一步,這個地址是ollama的地址,端口要對上,不然openwebUI找不到

openWebUI+ollama&windows+不用docker+webLite本地安裝,windows,docker,容器

然后就啟動 ,還是那個目錄

start_windows.bat (注意這里進去的時候在conda里,這個之前創(chuàng)的虛擬環(huán)境,這個目錄下進入,不然找不到包,因為你cmd默認用的是環(huán)境變量里那個python,或者就沒有Pyhton,例如:

**(py311olm) E:\Proj\web\ollama-openui\open-webui\backend>start_windows.bat )**

如果出現(xiàn)缺包的,就是你過早的 ctrl+c 了,不行就刪了conda這個環(huán)境重來,比較省事 pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt -U

這兩個都能使用,就是不知道為什么 openwebUI 比 weblite 這個慢的多,來個懂的說說??文章來源地址http://www.zghlxwxcb.cn/news/detail-859754.html

到了這里,關于openWebUI+ollama&windows+不用docker+webLite本地安裝的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • Docker,ollama,open-webui安裝使用 win11

    Docker,ollama,open-webui安裝使用 win11

    ? ? ? ? 要先安裝docker,再用docker安裝ollama和open-webui,如果直接去ollama官網下載安裝的話,我去打開ollama總是會閃退,雖然ollama的圖標還在,但是去訪問http://127.0.0.1:11434/時就會顯示錯誤,直接用docker安裝,ollama會直接顯示在docker上。 ????????本人對docker并不是很熟,本

    2024年04月17日
    瀏覽(21)
  • windows下docker長期不用無法啟動問題

    win10電腦中原本安裝的docker,在很長一段時間沒有啟動之后,再次啟動發(fā)現(xiàn)無法啟動了。直接重裝也無法重裝。 啟動docker桌面管理軟件后,一直在docker engine starting卡住。 因為沒有安裝wsl或wsl因為某些原因不可用了。 打開命令行窗口,輸入 wsl --list --verbose 查看wsl版本,如果輸

    2023年04月25日
    瀏覽(19)
  • 【運維知識大神篇】運維人必學的Docker教程1(Docker安裝部署+Docker鏡像管理+容器管理常用命令+搭建docker的本地yum源+windows系統(tǒng)安裝docker環(huán)境)

    【運維知識大神篇】運維人必學的Docker教程1(Docker安裝部署+Docker鏡像管理+容器管理常用命令+搭建docker的本地yum源+windows系統(tǒng)安裝docker環(huán)境)

    本篇文章開始給大家介紹Docker,這個是我非常喜歡的一個服務,介紹給大家,希望大家也能喜歡! 目錄 何為容器 Docker環(huán)境安裝部署 一、yum安裝(CentOS7.9) 二、rpm包安裝(CentOS) 三、卸載docker環(huán)境 四、安裝指定的docker版本 五、Ubuntu安裝docker環(huán)境 六、使用deb安裝docker 七、

    2024年01月18日
    瀏覽(105)
  • Ollama管理本地開源大模型,用Open WebUI訪問Ollama接口

    Ollama管理本地開源大模型,用Open WebUI訪問Ollama接口

    現(xiàn)在開源大模型一個接一個的,而且各個都說自己的性能非常厲害,但是對于我們這些使用者,用起來就比較尷尬了。因為一個模型一個調用的方式,先得下載模型,下完模型,寫加載代碼,麻煩得很。 對于程序的規(guī)范來說,只要東西一多,我們就需要一個集中管理的平臺,

    2024年03月26日
    瀏覽(23)
  • Spring AI 使用本地 Ollama Embeddings

    Spring AI 使用本地 Ollama Embeddings

    使用 OpenAI 的 Embeddings 接口是有費用的,如果想對大量文檔進行測試,使用本地部署的 Embeddings 就能省去大量的費用,所以我們嘗試使用本地的 Ollama Embeddings。 首先本地安裝 Ollama: https://ollama.com/download 即使你電腦沒有性能很強的顯卡,僅僅依靠 CPU 也能運行一些參數量較小的

    2024年04月27日
    瀏覽(27)
  • 如何在本地使用Ollama運行開源LLMs

    如何在本地使用Ollama運行開源LLMs

    本文將指導您下載并使用Ollama,在您的本地設備上與開源大型語言模型(LLMs)進行交互的強大工具。 與像ChatGPT這樣的閉源模型不同,Ollama提供透明度和定制性,使其成為開發(fā)人員和愛好者的寶貴資源。 我們將探索如何下載Ollama并與兩個令人興奮的開源LLM模型進行交互:Me

    2024年04月27日
    瀏覽(20)
  • Windows11下安裝detectron2超詳細教程(免修改版本)(不用進行修改代碼)

    Windows11下安裝detectron2超詳細教程(免修改版本)(不用進行修改代碼)

    在Windows上安裝detectron2,查看大部分博客都需要進行修改(各種復雜的操作),本人也按照博主教程進行修改后安裝失敗,下面是在進行了好幾天的失敗之后得到的不需要進行修改代碼即可成功下載detectron2,安裝成功,記錄過程如下。 附上鏈接Microsoft C++ Build Tools - Visual Stu

    2024年02月10日
    瀏覽(28)
  • 如何試用 Ollama 運行本地模型 Mac M2

    如何試用 Ollama 運行本地模型 Mac M2

    首先下載 Ollama 安裝完成之后,啟動 ollma 對應的模型,這里用的是 qwen:7b 命令與模型直接交互 我的機器配置是M2 Pro/ 32G,運行 7b 模型毫無壓力,而且推理時是用 GPU 進行運算的,可能就是 Ollama 底層是用 llama C++ 實現(xiàn)的,底層做了性能優(yōu)化,對 Mac特別友好。 純C/C++實現(xiàn),沒有

    2024年04月10日
    瀏覽(26)
  • Window中,Visual Studio 2022(C++)環(huán)境下安裝OpenCV教程(不用Cmake版本)

    Window中,Visual Studio 2022(C++)環(huán)境下安裝OpenCV教程(不用Cmake版本)

    本教程主要為了方便小白安裝C++版本的OpenCV。 1. 第一步:下載官方OpenCV 下載后,在本地安裝即可,注意記住安裝路徑,后續(xù)需要! 2. 配置系統(tǒng)環(huán)境變量,Path中,新增變量。即opencv安裝的路徑,選到opencv中build/x64/vc15/bin 3. 安裝visual studio 2022,官網 直接,按照C++配置安裝即可

    2024年02月11日
    瀏覽(32)
  • 使用Ollama在本地運行AI大模型gemma

    使用Ollama在本地運行AI大模型gemma

    本次本人用到的軟件匯總:百度網盤下載 https://github.com/ollama/ollama/releases 我的電腦-右鍵-屬性-系統(tǒng)-高級系統(tǒng)設置-環(huán)境變量-【系統(tǒng)環(huán)境變量】新建 變量名:OLLAMA_MODELS (固定變量名) 變量值:E:OllamaLib (寫自己要存放的路徑) 先配置好這個變量,這個是ollama的存儲路徑。

    2024年04月25日
    瀏覽(31)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包