国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

使用Ollama在本地運(yùn)行AI大模型gemma

這篇具有很好參考價值的文章主要介紹了使用Ollama在本地運(yùn)行AI大模型gemma。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。


本次本人用到的軟件匯總:百度網(wǎng)盤下載

1.下載:

https://github.com/ollama/ollama/releases

2.配置環(huán)境變量

我的電腦-右鍵-屬性-系統(tǒng)-高級系統(tǒng)設(shè)置-環(huán)境變量-【系統(tǒng)環(huán)境變量】新建

變量名:OLLAMA_MODELS (固定變量名)
變量值:E:\Ollama\Lib (寫自己要存放的路徑)

先配置好這個變量,這個是ollama的存儲路徑。
不配置也可以,不配置的話就會放到默認(rèn)位置,建議還是修改下存儲路徑,方便后續(xù)使用。
ollama無法找到已下載的大模型,開發(fā)部署實(shí)踐,人工智能,ollama,gemma,AI

3.安裝

直接install即可。
安裝完成后,cmd查詢下:ollama --version
如果查詢不到,重啟下電腦即可。
我這里是因?yàn)槲抑苯影裲llama給關(guān)了,所以出現(xiàn)了警告,不過也同樣可以看到ollama客戶端的版本。
ollama無法找到已下載的大模型,開發(fā)部署實(shí)踐,人工智能,ollama,gemma,AI
ollama的其他命令可以通過ollama help來獲取
ollama無法找到已下載的大模型,開發(fā)部署實(shí)踐,人工智能,ollama,gemma,AI

4.下載并運(yùn)行模型

  • 谷歌最新開源gemma:

    • 最低條件:
      2B版本需要2G顯存
      7B版本需要4G顯存
      7B的其他版本需要更大
  • 打開命令提示符窗口下載運(yùn)行模型:

    • 訪問:https://ollama.com/library選擇自己想要的模型,復(fù)制下載命令即可.

    • 這里選擇拉取gemma7b版本來試試:ollama run gemma:7b

    • 全量版模型拉取運(yùn)行命令
      ollama run gemma:2b-instruct-fp16
      ollama run gemma:7b-instruct-fp16

  • ollama命令:

    • 查看已有模型:ollama list
  • 下載完成后即在運(yùn)行(只下載的話,就用ollama pull去拉取即可)
    ollama無法找到已下載的大模型,開發(fā)部署實(shí)踐,人工智能,ollama,gemma,AI

  • 接下來可以直接在命令行窗口進(jìn)行問答
    ollama無法找到已下載的大模型,開發(fā)部署實(shí)踐,人工智能,ollama,gemma,AI

  • 拉取的模型可以在存儲目錄blobs下看到
    ollama無法找到已下載的大模型,開發(fā)部署實(shí)踐,人工智能,ollama,gemma,AI

5.整合界面UI

  • Ollama WebUI、open-webui等。
    需要在docker環(huán)境中運(yùn)行,windows本地docker已經(jīng)被我搞掉了,只有虛擬機(jī)里面才有docker環(huán)境。
    虛擬機(jī)占用內(nèi)存,破電腦性能一般般,不打算搞了。這個搞起來也還好,就是拉下鏡像運(yùn)行容器就行了。
  • JAN AI:https://jan.ai/ 下載windows版本客戶端(開源的)
    1)下載安裝后修改下數(shù)據(jù)存儲路徑(隨便要不要改),修改完重啟即可。
    ollama無法找到已下載的大模型,開發(fā)部署實(shí)踐,人工智能,ollama,gemma,AI

2)修改ai模型源:
E:\Ollama\JANAI\engines\openai.json
(上一步中的數(shù)據(jù)存儲路徑下,找到engines\openai.json進(jìn)行修改)

{
  "full_url": "http://localhost:11434/v1/chat/completions"
}

ollama無法找到已下載的大模型,開發(fā)部署實(shí)踐,人工智能,ollama,gemma,AI

3)添加模型配置:記得把里面的注釋去掉。
E:\Ollama\JANAI\models\底下創(chuàng)建一個文件夾mine-gemma-7b(名字隨便,我把models底下其他的文件夾都挪走備份了,方便管理而已)然后在底下創(chuàng)建個model.json文件
ollama無法找到已下載的大模型,開發(fā)部署實(shí)踐,人工智能,ollama,gemma,AI

{
    "sources": [
        {
            "filename": "gemma:7b", # 模型名稱
            "url": "https://ollama.com/library/gemma:7b" # 模型url
        }
    ],
    "id": "gemma:7b", #模型ID
    "object": "model",
    "name": "mine-gemma:7b",  #顯示在jan中模型名稱,隨便寫不影響
    "version": "1.0",
    "description": "ollama本地gemma:7b", #隨便寫不影響
    "format": "api",
    "settings": {
    },
    "parameters": {
    },
    "metadata": {
        "author": "Meta",
        "tags": [
            "General",
            "Big Context Length"
        ]
    },
    "engine": "openai", # 需要配置
    "state":"ready" # 需要配置
}

ollama無法找到已下載的大模型,開發(fā)部署實(shí)踐,人工智能,ollama,gemma,AI
上述配置弄完之后重啟下jan,然后再hub中就可以看到自己加的模型了,點(diǎn)擊use即可使用
ollama無法找到已下載的大模型,開發(fā)部署實(shí)踐,人工智能,ollama,gemma,AI
斷網(wǎng)狀態(tài)下是可以使用的。
ollama無法找到已下載的大模型,開發(fā)部署實(shí)踐,人工智能,ollama,gemma,AI文章來源地址http://www.zghlxwxcb.cn/news/detail-857333.html

  • chatbox : https://chatboxai.app/zh 下載windows客戶端
    直接安裝完按照下圖選中相應(yīng)模型就可以使用了。
    都是自動加載的,如果對界面沒啥要求的,推薦直接用chatbox就可以了,啥都不用整就可以用了。
    ollama無法找到已下載的大模型,開發(fā)部署實(shí)踐,人工智能,ollama,gemma,AI

到了這里,關(guān)于使用Ollama在本地運(yùn)行AI大模型gemma的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對llama.cpp 項(xiàng)目封裝

    【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對llama.cpp 項(xiàng)目封裝

    https://github.com/ollama/ollama/tree/main/docs https://www.bilibili.com/video/BV1oS421w7aM/ 【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測試qwen大模型,本地運(yùn)行速度飛快,本質(zhì)上是對llama.cpp 項(xiàng)目封裝 要是失敗執(zhí)行,子模塊更新: 需要編譯 llama.cpp 的代碼, 然后經(jīng)過漫長的編譯,就而可以

    2024年04月08日
    瀏覽(27)
  • Spring AI 使用本地 Ollama Embeddings

    Spring AI 使用本地 Ollama Embeddings

    使用 OpenAI 的 Embeddings 接口是有費(fèi)用的,如果想對大量文檔進(jìn)行測試,使用本地部署的 Embeddings 就能省去大量的費(fèi)用,所以我們嘗試使用本地的 Ollama Embeddings。 首先本地安裝 Ollama: https://ollama.com/download 即使你電腦沒有性能很強(qiáng)的顯卡,僅僅依靠 CPU 也能運(yùn)行一些參數(shù)量較小的

    2024年04月27日
    瀏覽(27)
  • Win10環(huán)境下使用Ollama搭建本地AI

    Win10環(huán)境下使用Ollama搭建本地AI

    前言: 1、Ollama需要安裝0.1.27版本,高于這個版本在執(zhí)行Ollama run 指令時會頻繁觸發(fā)一些奇奇怪怪的問題。 2、4.3篇章是重點(diǎn),若你需要使用web訪問的話,莫要忘記! 3、本文章適合新手。 4、篇章5中會介紹如何在vscode中利用ollama實(shí)現(xiàn)類似copilot的功能。 1、安裝Ollama ? ? ? ? 前

    2024年04月28日
    瀏覽(28)
  • 小白Windows下通過Ollama部署使用本地模型

    小白Windows下通過Ollama部署使用本地模型

    運(yùn)行環(huán)境為 windows R9000P2021拯救者筆記本 AMD R7-5800H 32G 內(nèi)存 NVIDIA RTX 3070 Laptop GPU Ollama下載exe,直接下一步下一步?jīng)]有設(shè)置可以更改 windows默認(rèn)安裝路徑: C:UserswbigoAppDataLocalProgramsOllama 安裝后會自動將該路徑加入環(huán)境變量 雙擊圖標(biāo)運(yùn)行后狀態(tài)欄會出現(xiàn)小圖標(biāo),右鍵有退出、

    2024年03月13日
    瀏覽(24)
  • 使用 ollama 部署最新的Llama 3 70B本地模型

    使用 ollama 部署最新的Llama 3 70B本地模型

    在本地啟動并運(yùn)行大型語言模型。運(yùn)行Llama 3,Mistral, Gemma, Code Llama和其他模型。自定義并創(chuàng)建您自己的。 綜合優(yōu)點(diǎn): 快速下載+容器自動運(yùn)行大模型,現(xiàn)在下載,馬上上手。 本地利用 cpu 運(yùn)行大模型,本地安全可靠。 ollama 命令,管理大模型相對方便,也可以多個大模型中切

    2024年04月25日
    瀏覽(20)
  • Elasticsearch:使用在本地計算機(jī)上運(yùn)行的 LLM 以及 Ollama 和 Langchain 構(gòu)建 RAG 應(yīng)用程序

    Elasticsearch:使用在本地計算機(jī)上運(yùn)行的 LLM 以及 Ollama 和 Langchain 構(gòu)建 RAG 應(yīng)用程序

    無需 GPU 的隱私保護(hù) LLM。在本博客中,我將演示使用不同的工具 Ollama 構(gòu)建的 RAG 應(yīng)用程序。 與本文相關(guān)的所有源代碼均已發(fā)布在 github上。 請克隆存儲庫以跟隨文章操作。我們可以通過如下的方式來克隆: Ollama 是一個輕量級且靈活的框架,專為在個人計算機(jī)上本地部署 LL

    2024年04月16日
    瀏覽(29)
  • Ollama管理本地開源大模型,用Open WebUI訪問Ollama接口

    Ollama管理本地開源大模型,用Open WebUI訪問Ollama接口

    現(xiàn)在開源大模型一個接一個的,而且各個都說自己的性能非常厲害,但是對于我們這些使用者,用起來就比較尷尬了。因?yàn)橐粋€模型一個調(diào)用的方式,先得下載模型,下完模型,寫加載代碼,麻煩得很。 對于程序的規(guī)范來說,只要東西一多,我們就需要一個集中管理的平臺,

    2024年03月26日
    瀏覽(20)
  • 【chatglm2】使用Python在CPU環(huán)境中運(yùn)行 chatglm.cpp 可以實(shí)現(xiàn)本地使用CPU運(yùn)行chatglm2模型,速度也特別的快可以本地部署,把現(xiàn)有項(xiàng)目進(jìn)行AI的改造。

    【chatglm2】使用Python在CPU環(huán)境中運(yùn)行 chatglm.cpp 可以實(shí)現(xiàn)本地使用CPU運(yùn)行chatglm2模型,速度也特別的快可以本地部署,把現(xiàn)有項(xiàng)目進(jìn)行AI的改造。

    https://github.com/li-plus/chatglm.cpp.git 這個項(xiàng)目和llama.cpp 項(xiàng)目類似,使用C++ 去運(yùn)行模型的。 項(xiàng)目使用了 ggml 這個核心模塊,去運(yùn)行的。 可以支持在 cpu 上面跑模型。 ChatGLM2-6B 是開源中英雙語對話模型 ChatGLM-6B 的第二代版本,在保留了初代模型對話流暢、部署門檻較低等眾多優(yōu)秀

    2024年02月08日
    瀏覽(23)
  • AI探索實(shí)踐8 - 本地運(yùn)行大模型

    AI探索實(shí)踐8 - 本地運(yùn)行大模型

    大家好,我是feng,感謝你閱讀我的博文,如果你也關(guān)注AI應(yīng)用開發(fā),歡迎關(guān)注公眾號和我一起?探索。如果文章對你有所啟發(fā),請為我點(diǎn)贊! 全棧技術(shù)探索 大模型LLMs,即大型語言模型(Large Language Models)簡稱為大模型,是一種基于人工智能和機(jī)器學(xué)習(xí)技術(shù)構(gòu)建的先進(jìn)模型,

    2024年04月25日
    瀏覽(17)
  • Windows本地部署Ollama+qwen本地大語言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪問

    Windows本地部署Ollama+qwen本地大語言模型Web交互界面并實(shí)現(xiàn)公網(wǎng)訪問

    本文主要介紹如何在Windows系統(tǒng)快速部署Ollama開源大語言模型運(yùn)行工具,并安裝Open WebUI結(jié)合cpolar內(nèi)網(wǎng)穿透軟件,實(shí)現(xiàn)在公網(wǎng)環(huán)境也能訪問你在本地內(nèi)網(wǎng)搭建的大語言模型運(yùn)行環(huán)境。 近些年來隨著ChatGPT的興起,大語言模型 LLM(Large Language Model)也成為了人工智能AI領(lǐng)域的熱門話

    2024年04月16日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包