国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

免費打造個人專屬的高顏值本地大模型AI助手,無限量使用 Ollama+LobeChat開源工具,在本地運行AI大模型,安全的和AI對話。

這篇具有很好參考價值的文章主要介紹了免費打造個人專屬的高顏值本地大模型AI助手,無限量使用 Ollama+LobeChat開源工具,在本地運行AI大模型,安全的和AI對話。。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1、安裝ollama

第一步,首先安裝ollama,選擇對應系統的安裝包

ollama官網地址:https://ollama.com/

ollama卸載模型,AI-LLM相關,人工智能
ollama卸載模型,AI-LLM相關,人工智能
本問是lunix系統上安裝ollama:

curl -fsSL https://ollama.com/install.sh | sh

ollama卸載模型,AI-LLM相關,人工智能
ollama卸載模型,AI-LLM相關,人工智能
如果機子沒有GPU顯卡的話,ollama會提示只通過cpu模式運行。

測試ollama命令:

ollama --help

ollama卸載模型,AI-LLM相關,人工智能

想要流暢運行,推薦配置:

  • 4b的模型:8GB內存。

  • 7b的模型:16GB內存。

  • 13b模型: 32GB內存。

  • 70b模型:64GB內存,32也能跑,太卡。

ollama卸載模型,AI-LLM相關,人工智能

2、下載模型

ollama支持的LLM模型很多:
https://ollama.com/library

第二步,下載model,本文選擇下載阿里的通義千問模型:
ollama卸載模型,AI-LLM相關,人工智能
ollama卸載模型,AI-LLM相關,人工智能
這里選擇4b參數的模型:
ollama卸載模型,AI-LLM相關,人工智能

ollama run qwen:4b

ollama卸載模型,AI-LLM相關,人工智能

ollama會自動幫我們下載模型和啟動模型。
模型下載完成后,可以發(fā)送一條消息測試:
ollama卸載模型,AI-LLM相關,人工智能
修改ollama環(huán)境變量:

#找到服務的單元文件:
#/etc/systemd/system/目錄下
sudo vi /etc/systemd/system/ollama.service
 
#添加環(huán)境變量:
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
#如果已經有
Environment="PATH=xxx:/root/bin" "OLLAMA_HOST=0.0.0.0:11434"
 
#為了使更改生效,您需要重新加載systemd的配置。使用以下命令:
sudo systemctl daemon-reload
 
 
#最后,重啟服務以應用更改:
sudo systemctl restart ollama
 

使用命令行操作不太方便,使用下面的lobe chat進行界面化操作。

3、安裝lobechat

Lobe Chat:現代化設計的開源 ChatGPT/LLMs 聊天應用與開發(fā)框架,支持語音合成、多模態(tài)、可擴展的(function call)插件系統,一鍵免費擁有你自己的 ChatGPT/Gemini/Claude/Ollama 應用。

lobe chat參考地址:https://github.com/lobehub/lobe-chat/blob/main/README.zh-CN.md

使用docker方式進行安裝:

docker run -d -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 lobehub/lobe-chat
#你在自己的私有設備上部署 LobeChat 服務。使用以下命令即可使用一鍵啟動 LobeChat 服務:

$ docker run -d -p 3210:3210 \
  -e OPENAI_API_KEY=sk-xxxx \
  -e ACCESS_CODE=lobe66 \
  --name lobe-chat \
  lobehub/lobe-chat

ollama卸載模型,AI-LLM相關,人工智能
開通3210端口,進行訪問測試:

ollama卸載模型,AI-LLM相關,人工智能
配置lobe chat:

首先將模型切換到我們下載好的qwen 4b模型:
點擊設置—選擇語言模型
ollama卸載模型,AI-LLM相關,人工智能
ollama卸載模型,AI-LLM相關,人工智能

ollama完全兼容openai的接口,在接口代理地址中輸入我們的ollama地址。

http://host.docker.internal:11434/v1

  • 如果是docker的話,用 http://host.docker.internal:11434/v1
  • 手動的話,就用 http://localhost:11434/v1 或者 http://127.0.0.1:11434/v1

如果是跑4b,7b等小模型,普通電腦就可以了,如果要跑32b比較大的,最好是有GPU,還要顯存比較大
硬盤沒啥要求,比如4b的模型,才2.3GB而已,30b的也就30GB左右,完全不用擔心磁盤.

4、卸載Ollama

如果您決定不再使用Ollama,可以通過以下步驟將其完全從系統中移除:

停止并禁用服務:

sudo systemctl stop ollama
sudo systemctl disable ollama

刪除服務文件和Ollama二進制文件:

sudo rm /etc/systemd/system/ollama.service 
sudo rm $(which ollama)

清理Ollama用戶和組:

sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama

ollama卸載模型,AI-LLM相關,人工智能


每一次的跌倒,都是對未來的一次深情擁抱。文章來源地址http://www.zghlxwxcb.cn/news/detail-859173.html


到了這里,關于免費打造個人專屬的高顏值本地大模型AI助手,無限量使用 Ollama+LobeChat開源工具,在本地運行AI大模型,安全的和AI對話。的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 發(fā)現一個高顏值流程圖 - 億圖圖示

    發(fā)現一個高顏值流程圖 - 億圖圖示

    今天給各位小伙伴們測試了一款高顏值的流程圖制作工具——億圖圖示。 對了,它不僅可以制作流程圖,還可以制作思維導圖、組織結構圖、泳道圖等等哦。接下來讓我們一起測試學習下吧 億圖圖示(Wondershare EdrawMax)是一款功能強大且易于使用的圖形表達工作臺,不僅可以

    2024年02月09日
    瀏覽(22)
  • 一款高顏值的第三方網易云播放器

    大家好,我是 Java陳序員 。 今天,給大家介紹一個基于 Vue 全家桶實現的“網易云”播放器。 關注微信公眾號:【Java陳序員】,獲取 開源項目分享、AI副業(yè)分享、超200本經典計算機電子書籍等。 YesPlayMusic —— 一款高顏值的第三方網易云播放器,支持 Windows / macOS / Linux。 功

    2024年04月12日
    瀏覽(44)
  • 個人專屬chatGpt免費使用,只需要2步

    個人專屬chatGpt免費使用,只需要2步

    第一步:先下載Docker? 下載網址:docker.com ? ? ? ? ? ? ? ? 選擇自己合適的環(huán)境下載 安裝: ? ? ? 等一丟丟會就可以了 ? ?我這里已經裝過了,第一次裝的話提示信息是:close and restart 需要重新下電腦 重啟完電腦后就會自動跳出這個界面: 選擇Accept后 ?提示我們需要升級

    2024年02月13日
    瀏覽(27)
  • 輕松部署高顏值社區(qū),在Ubuntu上搭建Cpolar+HYBBS論壇指南

    輕松部署高顏值社區(qū),在Ubuntu上搭建Cpolar+HYBBS論壇指南

    在國內互聯網剛剛起步時,網上的內容遠沒有現今這般豐富,甚至當下耳熟能詳的各個互聯網大廠,彼時都還沒有誕生。那時候的網民上網,大多數時候只能瀏覽門戶網站的新聞,或者到各個BBS上灌水發(fā)帖。隨著時代發(fā)展,互聯網的內容和應用逐漸豐富,曾經風光無二的BBS論

    2024年02月09日
    瀏覽(21)
  • 基于Docker搭建NextCloud-打造個人專屬或團隊共享的私有同步網盤

    基于Docker搭建NextCloud-打造個人專屬或團隊共享的私有同步網盤

    幾年前還百家爭鋒的國內網盤市場,如今只剩下百度網盤一枝獨秀,但是100kb/s限速讓人寒心。雖然還有一些穩(wěn)定的國外網盤,如 OneDrive、DropBox、Google Drive 等,但國內訪問并不友好。 Nextcloud 是一個免費專業(yè)的私有云存儲網盤「開源」項目,可以讓你簡單快速地在個人/公司電

    2024年02月04日
    瀏覽(27)
  • 3張照片打造專屬形象!酷蛙FaceChain解密個人寫真開源項目,人人AIGC!

    3張照片打造專屬形象!酷蛙FaceChain解密個人寫真開源項目,人人AIGC!

    各類AI寫真軟件由于其精準的個人形象+精美的生成效果引爆了朋友圈傳播,證件照滿足了用戶剛需,古裝照等風格照滿足了用戶“美照”的需求。 酷蛙FaceChain開源項目團隊推出了開源版本,希望結合開源社區(qū)開發(fā)者的力量,可以讓圖片應用更有趣、更好玩、也有更多應用場景

    2024年02月12日
    瀏覽(26)
  • 高顏值抓包工具Charles,實現Mac和IOS端抓取https請求

    高顏值抓包工具Charles,實現Mac和IOS端抓取https請求

    Hi,大家好。在進行測試的過程中,不可避免的會有程序報錯,為了能更快修復掉Bug,我們作為測試人員需要給開發(fā)人員提供更準確的報錯信息或者接口地址,這個時候就需要用到我們的抓包工具。 常見的抓包工具有Fiddler、Charles,在此之前介紹過Fiddler抓包:Fiddler抓包詳解,

    2024年04月09日
    瀏覽(25)
  • stable diffusion打造自己專屬的LORA模型

    stable diffusion打造自己專屬的LORA模型

    通過Lora小模型可以控制很多特定場景的內容生成。 但是那些模型是別人訓練好的,你肯定很好奇,我也想訓練一個自己的專屬模型(也叫煉丹~_~)。 甚至可以訓練一個專屬家庭版的模型(family model),非常有意思。 將自己的訓練好的Lora模型放到stableDiffusion lora 目錄中,

    2023年04月09日
    瀏覽(29)
  • 請收藏!分享一個ESP32/ESP8266高顏值WIFI配網頁面代碼-帶下拉選擇框和中英文版本。文末有arduino配網代碼。

    請收藏!分享一個ESP32/ESP8266高顏值WIFI配網頁面代碼-帶下拉選擇框和中英文版本。文末有arduino配網代碼。

    ????????最近在使用ESP32開發(fā)項目得時候用到了WIFI熱點配網,本著能CV絕不動手的原則在網上搜索了一番,但無奈網上的配網頁面實在太簡陋了。還是得自己動手寫一個。 先看效果。 ? 代碼功能說明: 代碼編譯下載后可以實現強制門戶登錄(強制門戶登錄就是在連接到

    2024年02月09日
    瀏覽(163)
  • 如何用Stable Diffusion模型生成個人專屬創(chuàng)意名片?

    如何用Stable Diffusion模型生成個人專屬創(chuàng)意名片?

    二維碼 是一種用于存儲和傳輸信息的方便而廣泛使用的圖像編碼技術。它是由黑色方塊和白色空白區(qū)域組成的二維圖形,可以通過掃描設備(如智能手機)進行解碼。二維碼基于特定的編碼標準和解碼算法——其中包括錯誤檢測和糾錯編碼,以確保在圖像損壞或部分遮擋的情況

    2024年02月16日
    瀏覽(43)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包