前言:
1、Ollama需要安裝0.1.27版本,高于這個(gè)版本在執(zhí)行Ollama run 指令時(shí)會(huì)頻繁觸發(fā)一些奇奇怪怪的問(wèn)題。
2、4.3篇章是重點(diǎn),若你需要使用web訪問(wèn)的話,莫要忘記!
3、本文章適合新手。
4、篇章5中會(huì)介紹如何在vscode中利用ollama實(shí)現(xiàn)類似copilot的功能。
1、安裝Ollama
? ? ? ? 前往Ollama官網(wǎng)下載Windows版本的安裝包,雙擊安裝。需要注意的是,安裝過(guò)程中有可能會(huì)觸發(fā)殺毒軟件警報(bào),記得放行。
2、下載并運(yùn)行AI模型
? ? ? ? 打開(kāi)cmd界面。執(zhí)行ollama run codellama。或者前往AI模型列表選擇自己想要的AI模型,執(zhí)行ollama run 指令。執(zhí)行成功它會(huì)判斷是否已經(jīng)安裝,若未安裝,將會(huì)自動(dòng)安裝并打開(kāi)。以下是安裝成功的效果。
3、更改AI模型下載位置。
? ? ? ? 打開(kāi)環(huán)境變量,在系統(tǒng)變量中新增OLLAMA_MODELS變量,值填入想要存放模型的路徑。如下。
4、使用webui訪問(wèn)。
????????4.1、啟動(dòng)并驗(yàn)證OLLAMA服務(wù)是否正常
????????????????當(dāng)OLLAMA啟動(dòng)后,訪問(wèn)localhost:11434。若頁(yè)面出現(xiàn)Ollama is running。則說(shuō)明程序正常。? ?
? ? ? ? 4.2、更改訪問(wèn)IP
? ? ? ? ? ? ? ? 在環(huán)境變量-系統(tǒng)變量中新增OLLAMA_HOST,值填入0.0.0.0。重新運(yùn)行OLLAMA后,就可以通過(guò)本機(jī)IP訪問(wèn)。
? ? ? ? 4.3、開(kāi)放跨域權(quán)限
? ? ? ? ? ? ? ? 在環(huán)境變量-系統(tǒng)變量中新增OLLAMA_ORIGINS,值填入*;【* -->英文星號(hào)】。不開(kāi)放跨域,在使用ollama-webui-lite訪問(wèn)ollama時(shí),會(huì)彈出Error: ollama version is 0錯(cuò)誤。
? ? ? ? 4.4、安裝?ollama-webui-lite??
? ? ? ? ? ? ? ? 想要折騰的,建議安裝這個(gè)open-webui。我嘗試在Windows10上運(yùn)行,但是跑不起來(lái)。所以換成了ollama-webui-lite。lite是基于open-webui上做了精簡(jiǎn),刪掉了無(wú)關(guān)的組件,僅保留webui功能。
? ? ? ? ? ? ? ? 安裝并執(zhí)行ollama-webui-lite。然后打開(kāi)ip:3000,就能打開(kāi)AI的web界面了。之后安裝模型,刪除模型你就可以直接用web界面來(lái)控制。
5、在vscode中使用ollama進(jìn)行自動(dòng)補(bǔ)全代碼。
? ? ? ? 具體文章訪問(wèn)這個(gè)吧。ollama+vscode實(shí)現(xiàn)本地github copilot文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-860875.html
????????文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-860875.html
到了這里,關(guān)于Win10環(huán)境下使用Ollama搭建本地AI的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!