国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

minigpt-4 本地部署

這篇具有很好參考價(jià)值的文章主要介紹了minigpt-4 本地部署。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

minigpt-4 git主頁(yè)。
筆者參考了深度學(xué)習(xí)筆記–本地部署Mini-GPT4,使用了http鏈接,

huggingface下載llama和vicuna權(quán)重的download.txt分別如下:

http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/.gitattributes
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/LICENSE
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/README.md
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/config.json
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/generation_config.json
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00001-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00002-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00003-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00004-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00005-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00006-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00007-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00008-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00009-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00010-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00011-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00012-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00013-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00014-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00015-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00016-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00017-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00018-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00019-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00020-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00021-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00022-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00023-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00024-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00025-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00026-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00027-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00028-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00029-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00030-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00031-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00032-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model-00033-of-00033.bin
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/pytorch_model.bin.index.json
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/special_tokens_map.json
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/tokenizer.model
http://huggingface.co/decapoda-research/llama-7b-hf/resolve/main/tokenizer_config.json
http://huggingface.co/lmsys/vicuna-7b-delta-v1.1/resolve/main/.gitattributes
http://huggingface.co/lmsys/vicuna-7b-delta-v1.1/resolve/main/README.md
http://huggingface.co/lmsys/vicuna-7b-delta-v1.1/resolve/main/config.json
http://huggingface.co/lmsys/vicuna-7b-delta-v1.1/resolve/main/generation_config.json
http://huggingface.co/lmsys/vicuna-7b-delta-v1.1/resolve/main/pytorch_model-00001-of-00002.bin
http://huggingface.co/lmsys/vicuna-7b-delta-v1.1/resolve/main/pytorch_model-00002-of-00002.bin
http://huggingface.co/lmsys/vicuna-7b-delta-v1.1/resolve/main/pytorch_model.bin.index.json
http://huggingface.co/lmsys/vicuna-7b-delta-v1.1/resolve/main/special_tokens_map.json
http://huggingface.co/lmsys/vicuna-7b-delta-v1.1/resolve/main/tokenizer.model
http://huggingface.co/lmsys/vicuna-7b-delta-v1.1/resolve/main/tokenizer_config.json

下載權(quán)重的腳本如下,使用了wget ${file} --no-check-certificate 繞開(kāi)https檢查:

#! /bin/bash
while read file; do
	wget ${file} --no-check-certificate 
done < download.txt

筆者的環(huán)境下,安裝FastChat 0.1.10會(huì)導(dǎo)致依賴沖突:

The conflict is caused by:
    fschat 0.1.10 depends on tokenizers>=0.12.1
    transformers 4.35.0.dev0 depends on tokenizers<0.15 and >=0.14

To fix this you could try to:
1. loosen the range of package versions you've specified
2. remove package versions to allow pip attempt to solve the dependency conflict

因此改為安裝別的版本fastchat

pip install fschat

再補(bǔ)充安裝accelerate

pip install accelerate

之后執(zhí)行python demo時(shí),缺什么依賴就直接pip install安裝即可。作者沒(méi)有列出requirements.txt。

python demo.py --cfg-path eval_configs/minigpt4_eval.yaml  --gpu-id 0

其它修改

執(zhí)行python demo.py仍然會(huì)遇到其它錯(cuò)誤:

如果在下載bert tokenizer和bert config時(shí)報(bào)HTTPS錯(cuò)誤,可以到huggingface把文件下載下來(lái),再修改Minigpt-4項(xiàng)目的源碼models/blip2.py

tokenizer = BertTokenizer.from_pretrained("/root/minigpt4/bert-base-uncased", local_files_only=True)
...
encoder_config = BertConfig.from_pretrained("/root/minigpt4/bert-base-uncased", local_files_only=True)       

讓代碼監(jiān)聽(tīng)網(wǎng)絡(luò),而不只是127.0.0.1文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-725963.html

demo.launch(share=True, enable_queue=True, server_name='0.0.0.0')

到了這里,關(guān)于minigpt-4 本地部署的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【chatglm2】使用Python在CPU環(huán)境中運(yùn)行 chatglm.cpp 可以實(shí)現(xiàn)本地使用CPU運(yùn)行chatglm2模型,速度也特別的快可以本地部署,把現(xiàn)有項(xiàng)目進(jìn)行AI的改造。

    【chatglm2】使用Python在CPU環(huán)境中運(yùn)行 chatglm.cpp 可以實(shí)現(xiàn)本地使用CPU運(yùn)行chatglm2模型,速度也特別的快可以本地部署,把現(xiàn)有項(xiàng)目進(jìn)行AI的改造。

    https://github.com/li-plus/chatglm.cpp.git 這個(gè)項(xiàng)目和llama.cpp 項(xiàng)目類似,使用C++ 去運(yùn)行模型的。 項(xiàng)目使用了 ggml 這個(gè)核心模塊,去運(yùn)行的。 可以支持在 cpu 上面跑模型。 ChatGLM2-6B 是開(kāi)源中英雙語(yǔ)對(duì)話模型 ChatGLM-6B 的第二代版本,在保留了初代模型對(duì)話流暢、部署門(mén)檻較低等眾多優(yōu)秀

    2024年02月08日
    瀏覽(24)
  • MiniGPT4 在RTX-3090 Ubuntu服務(wù)器部署步驟詳解

    MiniGPT4 在RTX-3090 Ubuntu服務(wù)器部署步驟詳解

    MiniGPT4系列之一部署篇:在RTX-3090 Ubuntu服務(wù)器部署步驟詳解_seaside2003的博客-CSDN博客 MiniGPT4系列之二推理篇命令行方式:在RTX-3090 Ubuntu服務(wù)器推理詳解_seaside2003的博客-CSDN博客 MiniGPT4系列之三模型推理 (Web UI):在RTX-3090 Ubuntu服務(wù)器推理_seaside2003的博客-CSDN博客 主要參考知乎帖子

    2024年02月15日
    瀏覽(44)
  • 體驗(yàn)本地部署AI繪畫(huà)程序

    體驗(yàn)本地部署AI繪畫(huà)程序

    目錄 前言 一、AI繪畫(huà)是什么? 二、Stable Diffusion簡(jiǎn)介 二、部署步驟 1.克隆代碼 2.部署環(huán)境 3. 安裝 4 一些錯(cuò)誤提示的排除 總結(jié) ? ? ? ? 隨著人工智能的不斷發(fā)展,尤其是chatGPT的成熟,AI繪畫(huà)也獲得了熱捧,甚至AI畫(huà)的太空歌劇院( Midjourney 所作)還獲得了獎(jiǎng)項(xiàng)。 ? ? ? ?由于

    2024年02月16日
    瀏覽(23)
  • 學(xué)習(xí)AI第一課:本地部署AI大模型

    學(xué)習(xí)AI第一課:本地部署AI大模型

    AI 大模型發(fā)展到現(xiàn)在,國(guó)內(nèi)外都有在線和離線版本,那如何在自己本地部署大模型呢?本文分享了一種簡(jiǎn)單的辦法,一起來(lái)看看吧。我們經(jīng)常能看到某某公司開(kāi)源了一款 AI 大模型的新聞。這些模型都有著超強(qiáng)的能力,從生成大段的文字、逼真的圖像,到理解和翻譯不同語(yǔ)言,

    2024年04月26日
    瀏覽(19)
  • TavernAI+KoboldAI本地部署實(shí)現(xiàn)AI對(duì)話

    TavernAI+KoboldAI本地部署實(shí)現(xiàn)AI對(duì)話

    必需的前提: (1)1個(gè)GPU,本文使用的是nvidia的,amd應(yīng)該也可以但我沒(méi)試過(guò)。顯存6G或以上,大于等于16G更好; (2)科學(xué)的上網(wǎng); (3)Windows系統(tǒng)。 linux系統(tǒng)也是可以的,但是我沒(méi)完整地試過(guò)。本文以Windows為準(zhǔn)。 另外最好會(huì)一些英語(yǔ),因?yàn)槟壳癒oboldAI對(duì)話模型對(duì)中文的支持

    2024年02月10日
    瀏覽(23)
  • 本地部署Stable Diffusion Webui AI 記錄

    本地部署Stable Diffusion Webui AI 記錄

    Stable Diffusion Webui AI本地部署基本分為兩種方式: 1、使用大佬的打包好的安裝包一鍵部署 b站秋葉aaaki 2、手動(dòng)部署(個(gè)人實(shí)踐記錄)參考文章 1、 需要擁有NVIDIA顯卡,GTX1060 (或者同等算力的N卡)以上,顯存4G以上。 2、操作系統(tǒng)需要win10或者win11的系統(tǒng)。 3、內(nèi)存16G或者以上,

    2024年02月05日
    瀏覽(16)
  • Stable diffusion ai圖像生成本地部署教程

    Stable diffusion ai圖像生成本地部署教程

    前言 本文將用最干最簡(jiǎn)單的方式告訴你怎么將Stable Diffusion AI圖像生成軟件部署到你的本地環(huán)境 關(guān)于Stable Diffusion的實(shí)現(xiàn)原理和訓(xùn)練微調(diào)請(qǐng)看我其他文章 部署Stable Diffusion主要分為三個(gè)部分 下載模型(模型可以認(rèn)為是被訓(xùn)練好的,生成圖像的大腦) 部署Web UI(可通過(guò)瀏覽器訪

    2024年02月04日
    瀏覽(51)
  • AI模型部署記錄(一)-ChatGLM:清華開(kāi)源本地部署(2023/05/06更新)

    文章首發(fā)及后續(xù)更新:https://mwhls.top/4500.html,無(wú)圖/無(wú)目錄/格式錯(cuò)誤/更多相關(guān)請(qǐng)至首發(fā)頁(yè)查看。 新的更新內(nèi)容請(qǐng)到mwhls.top查看。 歡迎提出任何疑問(wèn)及批評(píng),非常感謝! 服務(wù)部署匯總 本來(lái)這篇是為了打比賽寫(xiě)的,寫(xiě)著寫(xiě)著發(fā)現(xiàn)兩個(gè)問(wèn)題,AI部署連續(xù)幾篇,等我比賽打完再發(fā)模

    2024年02月03日
    瀏覽(60)
  • 【AI工具】-Stable Diffusion本地化部署教程

    【AI工具】-Stable Diffusion本地化部署教程

    今天我們要介紹的是時(shí)下最流行的AI繪圖軟件Stable Diffusion,雖然Diffusion.ai已經(jīng)開(kāi)放api,但是長(zhǎng)時(shí)間的商業(yè)化調(diào)用我們需要購(gòu)買很多的金幣。所以我們需要找一個(gè)平替的AI繪圖平臺(tái),現(xiàn)在主流市場(chǎng)中AI繪圖軟件主要就是OpenAI的DALLE、midjourney以及今天要學(xué)習(xí)的Stable Diffusion,而前兩

    2024年02月13日
    瀏覽(29)
  • [IDE(AI繪畫(huà))]從零開(kāi)始在本地部署AI繪畫(huà)實(shí)例(2023.4)

    [IDE(AI繪畫(huà))]從零開(kāi)始在本地部署AI繪畫(huà)實(shí)例(2023.4)

    跟我的版本號(hào)走基本上不會(huì)出錯(cuò),如果安裝錯(cuò)誤請(qǐng)檢查自己是不是升級(jí)版本了,python 3.11.x在文章發(fā)布時(shí)并不支持 如果有穩(wěn)定的節(jié)點(diǎn)就不需要修改鏡像源,有些包鏡像源的版本是過(guò)時(shí)的,安裝時(shí)會(huì)報(bào)錯(cuò) 安裝環(huán)境: CPU:AMD R7-5800H GPU:RTX3060 6G 內(nèi)存:16G 系統(tǒng):Win11 22H2 網(wǎng)絡(luò)環(huán)境:

    2023年04月26日
    瀏覽(24)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包