国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國

這篇具有很好參考價(jià)值的文章主要介紹了Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

Ollama安裝

下載Ollama

網(wǎng)址:https://ollama.com/
支持macOS、Linux和Windows多個(gè)平臺(tái)

Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國,macos

Ollama常用指令和鏈接

1. 常用指令

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

2. 鏈接
Blog:https://ollama.com/blog
Docs:https://github.com/ollama/ollama/tree/main/docs
GitHub:https://github.com/ollama/ollama
模型倉庫:https://ollama.com/library

運(yùn)行Ollama

以Llama 3為例

ollama run llama3

自動(dòng)安裝latest的版本是8B 4-bit模型,信息如下:

Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國,macos

如果是70B模型,可以參考
倉庫中Llama 3的介紹:https://ollama.com/library/llama3

運(yùn)行之后,項(xiàng)目默認(rèn)監(jiān)聽 11434 端口,終端查看

curl localhost:11434

輸出:

Ollama is running

運(yùn)行成功,可以在終端聊天了.

Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國,macos

API 交互Ollama

按下 Ctrl + D 可以退出終端交互,但此時(shí)模型并不會(huì)退出,仍舊可以正常通過 Api 接口交互。
具體可以參考官網(wǎng)api文檔:https://github.com/ollama/ollama/blob/main/docs/api.md

簡單api交互例子,新打開一個(gè)終端,輸入

curl http://localhost:11434/api/generate -d '{
  "model": "llama3",
  "prompt": "Why is the sky blue?",
  "stream": false
}'

Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國,macos

退出可以從電腦右上角退出

Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國,macos

基于Llama 3角色扮演

在任意目錄下建一個(gè)modelfile文件。具體信息查看官網(wǎng)modelfile文檔:
https://github.com/ollama/ollama/blob/main/docs/modelfile.md

modelfile文件:

Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國,macos

FROM llama3

# set the temperature to 1 [higher is more creative, lower is more coherent]
PARAMETER temperature 1

# set the system message
SYSTEM """
You are Liu Bei from the Three Kingdoms period in China. Answer as Liu Bei, the assistant, only used Simplified Chinese.
"""

創(chuàng)建劉備的個(gè)人聊天助手,新的模型我命名為Czi

ollama create Czi -f ./Modelfile

查看模型:

ollama ls

Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國,macos

運(yùn)行Czi模型

ollama run Czi

Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國,macos

這樣就可以啦!
接下里是本地部署LobeChat,實(shí)現(xiàn)網(wǎng)頁的交互

LobeChat安裝

首先安裝docker

這里跳過了。。。

安裝LobeChat的docker 鏡像和運(yùn)行

LobeChat的幫助文檔與 Ollama 集成。

一行代碼:

docker run -d -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 lobehub/lobe-chat

Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國,macos

可以看到LobeChat運(yùn)行在本地3210端口,瀏覽器打開http://localhost:3210

這樣就可以交互了!

Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國,macos

默認(rèn)的LobeChat沒有Czi模型,我們需要添加一下~

LobeChat的幫助文檔在 LobeChat 中使用 Ollama

在 設(shè)置 -> 語言模型 中找到 Ollama 的配置選項(xiàng)

Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國,macos

配置好了,可以跟劉皇叔在LobeChat中聊天啦!

Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國,macos文章來源地址http://www.zghlxwxcb.cn/news/detail-859520.html

到了這里,關(guān)于Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 免費(fèi)打造個(gè)人專屬的高顏值本地大模型AI助手,無限量使用 Ollama+LobeChat開源工具,在本地運(yùn)行AI大模型,安全的和AI對(duì)話。

    免費(fèi)打造個(gè)人專屬的高顏值本地大模型AI助手,無限量使用 Ollama+LobeChat開源工具,在本地運(yùn)行AI大模型,安全的和AI對(duì)話。

    第一步,首先安裝ollama,選擇對(duì)應(yīng)系統(tǒng)的安裝包 ollama官網(wǎng)地址:https://ollama.com/ 本問是lunix系統(tǒng)上安裝ollama: 如果機(jī)子沒有GPU顯卡的話,ollama會(huì)提示只通過cpu模式運(yùn)行。 測(cè)試ollama命令: 想要流暢運(yùn)行,推薦配置: 4b的模型:8GB內(nèi)存。 7b的模型:16GB內(nèi)存。 13b模型: 32GB內(nèi)存。 70b模

    2024年04月26日
    瀏覽(41)
  • 基于LM Studio + LLaMA3 建立本地化的ChatGPT

    基于LM Studio + LLaMA3 建立本地化的ChatGPT

    4月19日,F(xiàn)acebook母公司Meta重磅推出了Llama3。即便大家現(xiàn)在對(duì)于大廠和巨頭頻繁迭代AI模型的行為已經(jīng)見怪不怪,Meta的Llama3仍舊顯得與眾不同,因?yàn)檫@是迄今最強(qiáng)大的開源AI模型。LLaMA模型通常采用了類似于GPT(由OpenAI開發(fā))的變換器(Transformer)架構(gòu)。這種架構(gòu)特別適合處理大

    2024年04月27日
    瀏覽(22)
  • LLMs之Llama3:Llama 3的簡介、安裝和使用方法、案例應(yīng)用之詳細(xì)攻略

    LLMs之Llama3:Llama 3的簡介、安裝和使用方法、案例應(yīng)用之詳細(xì)攻略

    LLMs之Llama3:Llama 3的簡介、安裝和使用方法、案例應(yīng)用之詳細(xì)攻略 導(dǎo)讀 :2024年4月18日,Meta 重磅推出了Meta Llama 3,本文章主要介紹了Meta推出的新的開源大語言模型Meta Llama 3。模型架構(gòu) Llama 3 是一種 自回歸 語言模型,采用了優(yōu)化的 Transformer 架構(gòu)。調(diào)優(yōu)版本使用了 監(jiān)督微調(diào)(

    2024年04月22日
    瀏覽(38)
  • 【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測(cè)試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對(duì)llama.cpp 項(xiàng)目封裝

    【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測(cè)試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對(duì)llama.cpp 項(xiàng)目封裝

    https://github.com/ollama/ollama/tree/main/docs https://www.bilibili.com/video/BV1oS421w7aM/ 【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測(cè)試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對(duì)llama.cpp 項(xiàng)目封裝 要是失敗執(zhí)行,子模塊更新: 需要編譯 llama.cpp 的代碼, 然后經(jīng)過漫長的編譯,就而可以

    2024年04月08日
    瀏覽(28)
  • 如何試用 Ollama 運(yùn)行本地模型 Mac M2

    如何試用 Ollama 運(yùn)行本地模型 Mac M2

    首先下載 Ollama 安裝完成之后,啟動(dòng) ollma 對(duì)應(yīng)的模型,這里用的是 qwen:7b 命令與模型直接交互 我的機(jī)器配置是M2 Pro/ 32G,運(yùn)行 7b 模型毫無壓力,而且推理時(shí)是用 GPU 進(jìn)行運(yùn)算的,可能就是 Ollama 底層是用 llama C++ 實(shí)現(xiàn)的,底層做了性能優(yōu)化,對(duì) Mac特別友好。 純C/C++實(shí)現(xiàn),沒有

    2024年04月10日
    瀏覽(26)
  • 小白Windows下通過Ollama部署使用本地模型

    小白Windows下通過Ollama部署使用本地模型

    運(yùn)行環(huán)境為 windows R9000P2021拯救者筆記本 AMD R7-5800H 32G 內(nèi)存 NVIDIA RTX 3070 Laptop GPU Ollama下載exe,直接下一步下一步?jīng)]有設(shè)置可以更改 windows默認(rèn)安裝路徑: C:UserswbigoAppDataLocalProgramsOllama 安裝后會(huì)自動(dòng)將該路徑加入環(huán)境變量 雙擊圖標(biāo)運(yùn)行后狀態(tài)欄會(huì)出現(xiàn)小圖標(biāo),右鍵有退出、

    2024年03月13日
    瀏覽(24)
  • Windows本地部署Ollama+qwen本地大語言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪問

    Windows本地部署Ollama+qwen本地大語言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪問

    本文主要介紹如何在Windows系統(tǒng)快速部署Ollama開源大語言模型運(yùn)行工具,并安裝Open WebUI結(jié)合cpolar內(nèi)網(wǎng)穿透軟件,實(shí)現(xiàn)在公網(wǎng)環(huán)境也能訪問你在本地內(nèi)網(wǎng)搭建的大語言模型運(yùn)行環(huán)境。 近些年來隨著ChatGPT的興起,大語言模型 LLM(Large Language Model)也成為了人工智能AI領(lǐng)域的熱門話

    2024年04月16日
    瀏覽(27)
  • Llama3-8B+ LLaMA-Factory 中文微調(diào)

    Llama3是目前開源大模型中最優(yōu)秀的模型之一,但是原生的Llama3模型訓(xùn)練的中文語料占比非常低,因此在中文的表現(xiàn)方便略微欠佳! 本教程就以Llama3-8B-Instruct開源模型為模型基座,通過開源程序LLaMA-Factory來進(jìn)行中文的微調(diào),提高Llama3的中文能力!LLaMA-Factory是一個(gè)開源的模型訓(xùn)

    2024年04月27日
    瀏覽(30)
  • Mac環(huán)境下安裝nginx并本地部署項(xiàng)目

    Mac環(huán)境下安裝nginx并本地部署項(xiàng)目

    1、前提 必須安裝了homebrew,可在終端輸入命令 brew -v 查看是否已經(jīng)安裝,如果輸入指令出現(xiàn)版本號(hào)說明已經(jīng)安裝成功 如果未安裝先安裝(homebrew官網(wǎng)地址) 安裝完之后再次輸入 brew -v 查看是否有版本號(hào) 2、執(zhí)行 brew search nginx 命令查詢要安裝的軟件是否存在 3、執(zhí)行 brew insta

    2024年02月16日
    瀏覽(18)
  • openWebUI+ollama&windows+不用docker+webLite本地安裝

    openWebUI+ollama&windows+不用docker+webLite本地安裝

    總結(jié)一下安裝教程 10核CPU 16G內(nèi)存 兩個(gè)web框架都可以,先說簡單的 ollama-webui-lite( https://github.com/ollama-webui/ollama-webui-lite ) 輕量級(jí),只使用nodejs 先裝 https://ollama.com/download 新建文件夾 E:ProjolloamaModsSav ,cmd進(jìn)入該目錄 ollama run llama3,那么就會(huì)直接下載該模型到該目錄下,在blob

    2024年04月27日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包