国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Ollama管理本地開源大模型,用Open WebUI訪問Ollama接口

這篇具有很好參考價(jià)值的文章主要介紹了Ollama管理本地開源大模型,用Open WebUI訪問Ollama接口。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

現(xiàn)在開源大模型一個(gè)接一個(gè)的,而且各個(gè)都說自己的性能非常厲害,但是對于我們這些使用者,用起來就比較尷尬了。因?yàn)橐粋€(gè)模型一個(gè)調(diào)用的方式,先得下載模型,下完模型,寫加載代碼,麻煩得很。

對于程序的規(guī)范來說,只要東西一多,我們就需要一個(gè)集中管理的平臺(tái),如管理pythonpip,管理js庫的npm等等,而這種平臺(tái)是大家爭著搶著想實(shí)現(xiàn)的,這就有了Ollama。

Ollama

Ollama 對于管理開源大模型是認(rèn)真的,使用起來非常的簡單,先看下如何使用:

github地址
windows 11 ollama打開公網(wǎng)接口,AI智能工具,本地大模型,管理,ollama,open-webui

linux 下的安裝:

curl -fsSL https://ollama.com/install.sh | sh

等進(jìn)度條跑完,如果不出意外的話,Ollama就已經(jīng)安裝成功了。

用命令試一試,比如我們想用下Dolphin Phi:

ollama run dolphin-phi

提示如下:

pulling manifest 
pulling 4eca7304a07a... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏ 1.6 GB                         
pulling 876a8d805b60... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏  10 KB                         
pulling a47b02e00552... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏  106 B                         
pulling 8b586b146d99... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏   40 B                         
pulling f02dd72bb242... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏   59 B                         
pulling c87a43ded80f... 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏  555 B                         
verifying sha256 digest 
writing manifest 
removing any unused layers 
success 
>>>

有沒有一種使用docker的感覺,Ollama 幫我們把大模型下了,還幫我們做了適配,在提示符下就可以使用了:

>>> hi
Hello! How may I assist you today? Do you have any questions or need help with anything specific? I'm here to provide information and support for any 
inquiries you might have.

速度相當(dāng)?shù)目?,但是這是控制臺(tái)上測試使用的,還是不方便,Ollama還提供了api的方式,Ollama 在安裝成功以后,就 已經(jīng)建立了11434端口:

curl http://localhost:11434/api/generate -d '{
  "model": "dolphin-phi",
  "prompt":"Why is the sky blue?"
}'

或者 對話模式:

curl http://localhost:11434/api/chat -d '{
  "model": "mistral",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}'

有了api的方式,那想象空間就更大了,讓他也想chatgpt 一樣,用網(wǎng)頁進(jìn)行訪問,還能選擇已經(jīng)安裝的模型。

但稍等一下,Ollama的默認(rèn)配置是只有本地才可以訪問,需要配置一下:

找到配置文件:/etc/systemd/system/ollama.servic

添加 Environment="OLLAMA_HOST=0.0.0.0:11434"

結(jié)果文件如下:

...
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
ExecStart=/usr/bin/ollama serve
...

重啟:

systemctl daemon-reload
systemctl restart ollama

這樣,在外網(wǎng)就能夠使用ip的方式進(jìn)行訪問。

Open WebUI

Open WebUI 適配了Ollama接口,提供了web的方式來訪問Ollama的API,用法也非常的簡單,用docker的安裝方式:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

如果不是和Ollama 不是安裝在同一臺(tái)下,需要參考github

windows 11 ollama打開公網(wǎng)接口,AI智能工具,本地大模型,管理,ollama,open-webui

安裝完成后,用瀏覽器 http://localhost:3000或者 http://ip:3000 打開Open WebUI。就可以看到Open WebUI的界面了。

windows 11 ollama打開公網(wǎng)接口,AI智能工具,本地大模型,管理,ollama,open-webui
體驗(yàn)了下Open WebUI,功能還是很完善的,如果安裝有問題,可以評(píng)論區(qū)見。文章來源地址http://www.zghlxwxcb.cn/news/detail-843537.html

到了這里,關(guān)于Ollama管理本地開源大模型,用Open WebUI訪問Ollama接口的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • open-webui與ollama的部署最后完整之命令

    docker run -d --network=host -v open-webui:/app/backend/data -e HF_ENDPOINT=https://hf-mirror.com -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main -e HF_ENDPOINT=https://hf-mirror.com 一定要加上,要不然啟動(dòng)webui容器的時(shí)候會(huì)報(bào)錯(cuò)。

    2024年04月28日
    瀏覽(27)
  • Docker,ollama,open-webui安裝使用 win11

    Docker,ollama,open-webui安裝使用 win11

    ? ? ? ? 要先安裝docker,再用docker安裝ollama和open-webui,如果直接去ollama官網(wǎng)下載安裝的話,我去打開ollama總是會(huì)閃退,雖然ollama的圖標(biāo)還在,但是去訪問http://127.0.0.1:11434/時(shí)就會(huì)顯示錯(cuò)誤,直接用docker安裝,ollama會(huì)直接顯示在docker上。 ????????本人對docker并不是很熟,本

    2024年04月17日
    瀏覽(21)
  • 【linux 使用ollama部署運(yùn)行本地大模型完整的教程,openai接口, llama2例子】

    【linux 使用ollama部署運(yùn)行本地大模型完整的教程,openai接口, llama2例子】

    # 安裝相應(yīng)的包 # 開啟ollama服務(wù)端! # 啟動(dòng)llama2大模型(新開一個(gè)終端) # 如果不想啟動(dòng)運(yùn)行,只下載可以 在啟動(dòng)完后,就可以對話了 # python接口對話 ? # OpenAI適配接口對話 # CUR流式接口 # 參考 llama2 (ollama.com) https://ollama.com/library/llama2 OpenAI compatibility · Ollama Blog https://ollama

    2024年03月25日
    瀏覽(50)
  • 免費(fèi)打造個(gè)人專屬的高顏值本地大模型AI助手,無限量使用 Ollama+LobeChat開源工具,在本地運(yùn)行AI大模型,安全的和AI對話。

    免費(fèi)打造個(gè)人專屬的高顏值本地大模型AI助手,無限量使用 Ollama+LobeChat開源工具,在本地運(yùn)行AI大模型,安全的和AI對話。

    第一步,首先安裝ollama,選擇對應(yīng)系統(tǒng)的安裝包 ollama官網(wǎng)地址:https://ollama.com/ 本問是lunix系統(tǒng)上安裝ollama: 如果機(jī)子沒有GPU顯卡的話,ollama會(huì)提示只通過cpu模式運(yùn)行。 測試ollama命令: 想要流暢運(yùn)行,推薦配置: 4b的模型:8GB內(nèi)存。 7b的模型:16GB內(nèi)存。 13b模型: 32GB內(nèi)存。 70b模

    2024年04月26日
    瀏覽(41)
  • [最新搭建教程]0基礎(chǔ)Linux CentOS7系統(tǒng)服務(wù)器本地安裝部署ChatGPT模型服務(wù)搭建/免費(fèi)域名綁定網(wǎng)頁Https訪問/調(diào)用open AI的API/GPT3/GPT3.5/GPT4模型接口

    [最新搭建教程]0基礎(chǔ)Linux CentOS7系統(tǒng)服務(wù)器本地安裝部署ChatGPT模型服務(wù)搭建/免費(fèi)域名綁定網(wǎng)頁Https訪問/調(diào)用open AI的API/GPT3/GPT3.5/GPT4模型接口

    一、關(guān)于此文 本文介紹了如何克隆一個(gè)開源的項(xiàng)目,通過請求調(diào)用OpenAI ChatGPT模型接口,以使用ChatGPT的強(qiáng)大功能。相比于直接登錄ChatGPT官網(wǎng)對話,此方法對話過程更為流暢,不會(huì)頻頻出現(xiàn)限流導(dǎo)致對話中斷或網(wǎng)絡(luò)異常;此外,部署完成后無需魔法即可訪問,可分享給親朋好

    2024年02月10日
    瀏覽(96)
  • 如何在本地使用Ollama運(yùn)行開源LLMs

    如何在本地使用Ollama運(yùn)行開源LLMs

    本文將指導(dǎo)您下載并使用Ollama,在您的本地設(shè)備上與開源大型語言模型(LLMs)進(jìn)行交互的強(qiáng)大工具。 與像ChatGPT這樣的閉源模型不同,Ollama提供透明度和定制性,使其成為開發(fā)人員和愛好者的寶貴資源。 我們將探索如何下載Ollama并與兩個(gè)令人興奮的開源LLM模型進(jìn)行交互:Me

    2024年04月27日
    瀏覽(20)
  • AI繪畫——本地配置webui啟動(dòng)器教程,支持一鍵啟動(dòng)/修復(fù)/更新/模型下載管理+Lora模型推薦

    AI繪畫——本地配置webui啟動(dòng)器教程,支持一鍵啟動(dòng)/修復(fù)/更新/模型下載管理+Lora模型推薦

    秋葉aaaki的個(gè)人空間_嗶哩嗶哩_bilibili https://space.bilibili.com/12566101/?spm_id_from=333.999.0.0 感謝 秋葉aaaki大佬の免費(fèi)開源 目錄 1.獲取資源整合包 2. 下載并配置webui啟動(dòng)器 ?3.啟動(dòng)器功能 ?4.一鍵啟動(dòng),開始實(shí)戰(zhàn) 5.效果演示? 露出雞腳哩 ?幻想景色加上lora模型xiaorenshu ?劉亦菲圖生圖

    2024年02月03日
    瀏覽(26)
  • 開源模型應(yīng)用落地-工具使用篇-Ollama(六)

    開源模型應(yīng)用落地-工具使用篇-Ollama(六)

    一、前言 ? ? 在AI大模型百花齊放的時(shí)代,很多人都對新興技術(shù)充滿了熱情,都想嘗試一下。但是,實(shí)際上要入門AI技術(shù)的門檻非常高。除了需要高端設(shè)備,還需要面臨復(fù)雜的部署和安裝過程,這讓很多人望而卻步。不過,隨著開源技術(shù)的不斷進(jìn)步,使得入門AI變得越來越容易

    2024年03月08日
    瀏覽(23)
  • 如何試用 Ollama 運(yùn)行本地模型 Mac M2

    如何試用 Ollama 運(yùn)行本地模型 Mac M2

    首先下載 Ollama 安裝完成之后,啟動(dòng) ollma 對應(yīng)的模型,這里用的是 qwen:7b 命令與模型直接交互 我的機(jī)器配置是M2 Pro/ 32G,運(yùn)行 7b 模型毫無壓力,而且推理時(shí)是用 GPU 進(jìn)行運(yùn)算的,可能就是 Ollama 底層是用 llama C++ 實(shí)現(xiàn)的,底層做了性能優(yōu)化,對 Mac特別友好。 純C/C++實(shí)現(xiàn),沒有

    2024年04月10日
    瀏覽(26)
  • 小白Windows下通過Ollama部署使用本地模型

    小白Windows下通過Ollama部署使用本地模型

    運(yùn)行環(huán)境為 windows R9000P2021拯救者筆記本 AMD R7-5800H 32G 內(nèi)存 NVIDIA RTX 3070 Laptop GPU Ollama下載exe,直接下一步下一步?jīng)]有設(shè)置可以更改 windows默認(rèn)安裝路徑: C:UserswbigoAppDataLocalProgramsOllama 安裝后會(huì)自動(dòng)將該路徑加入環(huán)境變量 雙擊圖標(biāo)運(yùn)行后狀態(tài)欄會(huì)出現(xiàn)小圖標(biāo),右鍵有退出、

    2024年03月13日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包