国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

使用 ollama 部署最新的Llama 3 70B本地模型

這篇具有很好參考價(jià)值的文章主要介紹了使用 ollama 部署最新的Llama 3 70B本地模型。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

一、ollama是什么?

在本地啟動(dòng)并運(yùn)行大型語(yǔ)言模型。運(yùn)行Llama 3,Mistral, Gemma, Code Llama和其他模型。自定義并創(chuàng)建您自己的。
綜合優(yōu)點(diǎn):
  • 快速下載+容器自動(dòng)運(yùn)行大模型,現(xiàn)在下載,馬上上手。
  • 本地利用 cpu 運(yùn)行大模型,本地安全可靠。
  • ollama 命令,管理大模型相對(duì)方便,也可以多個(gè)大模型中切換。
  • 終端直接開始聊天。
  • 社區(qū)提供了支持 web api 方式訪問(wèn) WebUI。
官方網(wǎng)站: Ollama
github :? ollama/ollama: Get up and running with Llama 3, Mistral, Gemma, and other large language models. (github.com)

二、準(zhǔn)備和安裝工作

設(shè)備需求和輔助軟件:

  • Ollama自帶docker ,為了方便部署軟件。
  • 良好的網(wǎng)絡(luò)環(huán)境,大模型還是要先下載下來(lái)的。
  • 配置要求:一般來(lái)說(shuō)參數(shù)越大,需要配置越好。
  • 存儲(chǔ)空間:確保硬盤空間充足,并且學(xué)會(huì)設(shè)置環(huán)境變量來(lái)調(diào)整保存model的地址,別再下載到C盤了!

model地址和環(huán)境變量設(shè)置

win10輸入path或者環(huán)境變量

使用 ollama 部署最新的Llama 3 70B本地模型,ai,人工智能,語(yǔ)言模型,安全,golang,神經(jīng)網(wǎng)絡(luò),gpt

使用 ollama 部署最新的Llama 3 70B本地模型,ai,人工智能,語(yǔ)言模型,安全,golang,神經(jīng)網(wǎng)絡(luò),gpt

增加系統(tǒng)環(huán)境變量

使用 ollama 部署最新的Llama 3 70B本地模型,ai,人工智能,語(yǔ)言模型,安全,golang,神經(jīng)網(wǎng)絡(luò),gpt

使用 ollama 部署最新的Llama 3 70B本地模型,ai,人工智能,語(yǔ)言模型,安全,golang,神經(jīng)網(wǎng)絡(luò),gpt

變量名(不能變):OLLAMA_MODELS

(盤符和地址自主選擇,建議先創(chuàng)建好文件夾)D:\Ollama

下載ollama

使用 ollama 部署最新的Llama 3 70B本地模型,ai,人工智能,語(yǔ)言模型,安全,golang,神經(jīng)網(wǎng)絡(luò),gpt

進(jìn)入 ollama 下載頁(yè)面,選擇自己的系統(tǒng)版本的下載并安裝即可。

檢驗(yàn)是否安裝成功

輸入 ollama 命令,正常的得出命令行輸出,表示已經(jīng)安裝成功,下面有 ollama 的常用命令:

 ollama

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

三、ollama 模型庫(kù)

詳見library (ollama.com),用于搜索已收錄的模型庫(kù)。以下是一些流行的模型:

模型

參數(shù) 尺寸 執(zhí)行下載
Llama3 8B 8B 4.7GB ollama run llama3:8b
Llama3 70B 70B 40GB ollama run llama3:70b
Mistral 7B 26GB ollama run mistral
Code Llama 7b 7B 3.8GB ollama run codellama:7b
Code Llama 13b 13B 7.4GB ollama run codellama:13b
Code Llama 34b 34B 19GB ollama run codellama:34b
Code Llama 70b 70B 39GB ollama run codellama:70b
Gemma 2B 1.7GB ollama run gemma:2b
Gemma 7B 5GB ollama run gemma:7b

Llama 3的亮點(diǎn)和特性如下:

  • 基于超過(guò)15T token訓(xùn)練,大小相當(dāng)于Llama 2數(shù)據(jù)集的7倍還多;
  • 訓(xùn)練效率比Llama 2高3倍;
  • 支持8K長(zhǎng)文本,改進(jìn)的tokenizer具有128K token的詞匯量,可實(shí)現(xiàn)更好的性能;
  • 在大量重要基準(zhǔn)測(cè)試中均具有最先進(jìn)性能;
  • 增強(qiáng)推理和代碼能力;
  • 安全性有重大突破,帶有Llama Guard 2、Code Shield 和 CyberSec Eval 2的新版信任和安全工具,還能比Llama 2有更好“錯(cuò)誤拒絕表現(xiàn)”。

使用 ollama 部署最新的Llama 3 70B本地模型,ai,人工智能,語(yǔ)言模型,安全,golang,神經(jīng)網(wǎng)絡(luò),gpt

使用 ollama 部署最新的Llama 3 70B本地模型,ai,人工智能,語(yǔ)言模型,安全,golang,神經(jīng)網(wǎng)絡(luò),gpt

四、下載運(yùn)行模型

ollama run llama3:8b # 運(yùn)行l(wèi)lama3 8b大模型

直接使用 run 命令 + 模型名字就可以運(yùn)行模型。

如果之前沒(méi)有下載過(guò),那么會(huì)自動(dòng)下載。(由于網(wǎng)絡(luò)環(huán)境的原因,一開始可能比較慢,但會(huì)隨著時(shí)間進(jìn)展有所優(yōu)化,如果模型比較大,要耐心等待一段時(shí)間)

下載完畢之后可以在終端中直接進(jìn)行對(duì)話了。

使用 ollama 部署最新的Llama 3 70B本地模型,ai,人工智能,語(yǔ)言模型,安全,golang,神經(jīng)網(wǎng)絡(luò),gpt

直接在終端中對(duì)話:用 llama3 模型寫一個(gè) nextjs組件或者 回答你的一些知識(shí)類問(wèn)題

根據(jù)實(shí)際測(cè)試,llama3? 70B在windows10環(huán)境下,基本占用32GB內(nèi)存,llama3 8B基本占用16GB內(nèi)存。

建議至少不低于48GB或64GB內(nèi)存,否則沒(méi)有足夠內(nèi)存支持運(yùn)行其他程序。

第三方API調(diào)用

API調(diào)用默認(rèn)端口11434

本地地址參考:127.0.0.1:11434

五、可視化UI界面可以試試?Open WebUI

LLMs用戶友好的WebUI(以前的Ollama WebUI): open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI) (github.com)

docker 部署

如果您的計(jì)算機(jī)上有 Ollama,請(qǐng)使用以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

如果 Ollama 位于不同的服務(wù)器上,要連接到另一臺(tái)服務(wù)器上的 Ollama,請(qǐng)將?OLLAMA_BASE_URL?更改為服務(wù)器的 URL:

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

安裝完成后,可以通過(guò)訪問(wèn)Open WebUI。??

http://localhost:3000

注意:端口3000常被其他的開發(fā)程序占用,可以根據(jù)自己的實(shí)際情況調(diào)整端口

使用 ollama 部署最新的Llama 3 70B本地模型,ai,人工智能,語(yǔ)言模型,安全,golang,神經(jīng)網(wǎng)絡(luò),gpt

進(jìn)入聊天界面

使用 ollama 部署最新的Llama 3 70B本地模型,ai,人工智能,語(yǔ)言模型,安全,golang,神經(jīng)網(wǎng)絡(luò),gpt

如果您想將本地 Docker 安裝更新到最新版本,可以使用?Watchtower?來(lái)完成:

在命令的最后部分,如果不同,請(qǐng)將?open-webui?替換為您的容器名稱。

docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

以上,只是一個(gè)基本的流程,實(shí)際使用還有很多好的功能與用法。ollama 大部分代碼基于 go 開發(fā),大家可以多多探索。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-857305.html

到了這里,關(guān)于使用 ollama 部署最新的Llama 3 70B本地模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • AI-windows下使用llama.cpp部署本地Chinese-LLaMA-Alpaca-2模型

    生成的文件在 .buildbin ,我們要用的是 main.exe , binmain.exe -h 查看使用幫助 本項(xiàng)目基于Meta發(fā)布的可商用大模型Llama-2開發(fā),是中文LLaMAAlpaca大模型的第二期項(xiàng)目,開源了中文LLaMA-2基座模型和Alpaca-2指令精調(diào)大模型。這些模型在原版Llama-2的基礎(chǔ)上擴(kuò)充并優(yōu)化了中文詞表,使用

    2024年04月25日
    瀏覽(33)
  • 小白Windows下通過(guò)Ollama部署使用本地模型

    小白Windows下通過(guò)Ollama部署使用本地模型

    運(yùn)行環(huán)境為 windows R9000P2021拯救者筆記本 AMD R7-5800H 32G 內(nèi)存 NVIDIA RTX 3070 Laptop GPU Ollama下載exe,直接下一步下一步?jīng)]有設(shè)置可以更改 windows默認(rèn)安裝路徑: C:UserswbigoAppDataLocalProgramsOllama 安裝后會(huì)自動(dòng)將該路徑加入環(huán)境變量 雙擊圖標(biāo)運(yùn)行后狀態(tài)欄會(huì)出現(xiàn)小圖標(biāo),右鍵有退出、

    2024年03月13日
    瀏覽(24)
  • 使用Ollama在本地運(yùn)行AI大模型gemma

    使用Ollama在本地運(yùn)行AI大模型gemma

    本次本人用到的軟件匯總:百度網(wǎng)盤下載 https://github.com/ollama/ollama/releases 我的電腦-右鍵-屬性-系統(tǒng)-高級(jí)系統(tǒng)設(shè)置-環(huán)境變量-【系統(tǒng)環(huán)境變量】新建 變量名:OLLAMA_MODELS (固定變量名) 變量值:E:OllamaLib (寫自己要存放的路徑) 先配置好這個(gè)變量,這個(gè)是ollama的存儲(chǔ)路徑。

    2024年04月25日
    瀏覽(31)
  • 大模型使用——超算上部署LLAMA-2-70B-Chat

    大模型使用——超算上部署LLAMA-2-70B-Chat

    前言 1、本機(jī)為 Inspiron 5005 ,為 64 位,所用操作系統(tǒng)為 Windos 10 。超算的操作系統(tǒng)為 基于Centos的linux , GPU 配置為 A100 ,所使用開發(fā)環(huán)境為 Anaconda 。 2、本教程主要實(shí)現(xiàn)了在超算上部署LLAMA2-70B-Chat。 實(shí)現(xiàn)步驟 1、連接上超算以后,執(zhí)行如下命令在超算上創(chuàng)建一個(gè)虛擬環(huán)境。

    2024年02月13日
    瀏覽(16)
  • Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國(guó)

    Mac 安裝Ollama和llama3,本地部署LobeChat和劉皇叔聊三國(guó)

    網(wǎng)址:https://ollama.com/ 支持macOS、Linux和Windows多個(gè)平臺(tái) 1. 常用指令 2. 鏈接 Blog:https://ollama.com/blog Docs:https://github.com/ollama/ollama/tree/main/docs GitHub:https://github.com/ollama/ollama 模型倉(cāng)庫(kù) :https://ollama.com/library 以Llama 3為例 自動(dòng)安裝latest的版本是8B 4-bit模型,信息如下: 如果是70B模

    2024年04月27日
    瀏覽(18)
  • 免費(fèi)打造個(gè)人專屬的高顏值本地大模型AI助手,無(wú)限量使用 Ollama+LobeChat開源工具,在本地運(yùn)行AI大模型,安全的和AI對(duì)話。

    免費(fèi)打造個(gè)人專屬的高顏值本地大模型AI助手,無(wú)限量使用 Ollama+LobeChat開源工具,在本地運(yùn)行AI大模型,安全的和AI對(duì)話。

    第一步,首先安裝ollama,選擇對(duì)應(yīng)系統(tǒng)的安裝包 ollama官網(wǎng)地址:https://ollama.com/ 本問(wèn)是lunix系統(tǒng)上安裝ollama: 如果機(jī)子沒(méi)有GPU顯卡的話,ollama會(huì)提示只通過(guò)cpu模式運(yùn)行。 測(cè)試ollama命令: 想要流暢運(yùn)行,推薦配置: 4b的模型:8GB內(nèi)存。 7b的模型:16GB內(nèi)存。 13b模型: 32GB內(nèi)存。 70b模

    2024年04月26日
    瀏覽(41)
  • 【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測(cè)試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對(duì)llama.cpp 項(xiàng)目封裝

    【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測(cè)試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對(duì)llama.cpp 項(xiàng)目封裝

    https://github.com/ollama/ollama/tree/main/docs https://www.bilibili.com/video/BV1oS421w7aM/ 【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測(cè)試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對(duì)llama.cpp 項(xiàng)目封裝 要是失敗執(zhí)行,子模塊更新: 需要編譯 llama.cpp 的代碼, 然后經(jīng)過(guò)漫長(zhǎng)的編譯,就而可以

    2024年04月08日
    瀏覽(28)
  • Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪問(wèn)

    Windows本地部署Ollama+qwen本地大語(yǔ)言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪問(wèn)

    本文主要介紹如何在Windows系統(tǒng)快速部署Ollama開源大語(yǔ)言模型運(yùn)行工具,并安裝Open WebUI結(jié)合cpolar內(nèi)網(wǎng)穿透軟件,實(shí)現(xiàn)在公網(wǎng)環(huán)境也能訪問(wèn)你在本地內(nèi)網(wǎng)搭建的大語(yǔ)言模型運(yùn)行環(huán)境。 近些年來(lái)隨著ChatGPT的興起,大語(yǔ)言模型 LLM(Large Language Model)也成為了人工智能AI領(lǐng)域的熱門話

    2024年04月16日
    瀏覽(26)
  • 【AI】在docker中部署ollama體驗(yàn)AI模型

    1.2.1.安裝英偉達(dá)容器工具包(以Ubuntu22.04為例) 其他系統(tǒng)請(qǐng)參考:英偉達(dá)官方文檔 1.2.2.docker使用GPU運(yùn)行ollama ollama模型倉(cāng)庫(kù)

    2024年03月21日
    瀏覽(30)
  • 自定義數(shù)據(jù)集使用llama_factory微調(diào)模型并導(dǎo)入ollama

    自定義數(shù)據(jù)集使用llama_factory微調(diào)模型并導(dǎo)入ollama

    本文所有操作均在linux系統(tǒng)下完成 參考github的安裝命令 參考github,使用以下命令啟動(dòng)LLaMA Factory web頁(yè)面:(web ui界面只支持單卡運(yùn)行,如需多卡微調(diào)請(qǐng)參考github相關(guān)部分) 此外可以選擇模型下載源,這里推薦國(guó)內(nèi)用戶使用魔搭社區(qū)下載渠道。 ?成功啟動(dòng)后會(huì)進(jìn)入web操作界面:

    2024年04月26日
    瀏覽(25)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包