国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA)

這篇具有很好參考價(jià)值的文章主要介紹了本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理

GitHub地址:https://github.com/dvlab-research/LISA
該項(xiàng)目論文paper reading:https://blog.csdn.net/Transfattyacids/article/details/132254770

在GitHub上下載源文件,進(jìn)入下載的文件夾,打開該地址下的命令控制臺(tái),執(zhí)行指令:

pip install -r requirements.txt
pip install flash-attn --no-build-isolation

幾種報(bào)錯(cuò)解決方法:

  1. 下載包失敗
    例:“pip install numpy”
    解決:“pip install numpy -i https://pypi.tuna.tsinghua.edu.cn/simple/”
    其他源:
    清華: https://pypi.tuna.tsinghua.edu.cn/simple/
    阿里云: http://mirrors.aliyun.com/pypi/simple/
    豆瓣:https://pypi.doubanio.com/simple

  2. 安裝包版本沖突
    例:“tensorflow-intel 2.12.0 requires numpy<1.24,>=1.22, but you have numpy 1.24.2 which is incompatible.”
    解決:帶上具體版本號(hào),如“pip install numpy==1.23”

  3. 就是下不下來
    例: “ERROR: Could not build wheels for XXX, which is required to install pyproject.toml-based projects”
    解決:去網(wǎng)站下安裝包,“.whl”文件到本地安裝,列幾個(gè)下載網(wǎng)站:
    https://download.pytorch.org/whl/
    https://pypi.org/project

(除了這2個(gè),法1中的3個(gè)源也可以使用)
(還是下不下來,去對(duì)應(yīng)包的GitHub,下載對(duì)應(yīng)版本的releases)
下載完后執(zhí)行:pip install file_name.whl(file_name是絕對(duì)地址)

之前https://www.lfd.uci.edu/~gohlke/pythonlibs/也可以下載whl,現(xiàn)在點(diǎn)進(jìn)去是這樣的下不了了
本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理
4. 還有一個(gè)很奇怪的方法:conda install -c conda-forge XXX

  • 下載預(yù)訓(xùn)練權(quán)重

如果想要自訓(xùn)練:

LLaVA:https://huggingface.co/decapoda-research
SAM:https://dl.fbaipublicfiles.com/segment_anything/sam_vit_h_4b8939.pth

直接使用提供的權(quán)重:

LISA:https://huggingface.co/xinlai

有6個(gè)版本
本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理
我下載了LISA-13B-llama2-v0-explanatory(別下這個(gè),我當(dāng)時(shí)是因?yàn)樽髡咧话l(fā)布了兩個(gè)版本,才下的,后面沒用上,要下就選擇v1的版本,內(nèi)存大的下13B,小的下7B)

本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理

要用梯子,大文件要使用LFS,git clone不能克隆需要LFS的文件,大文件我都是一個(gè)個(gè)單獨(dú)下的(漫長的下載過程orz

記得修改chat.py里權(quán)重的地址(圖中第20行)
本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理

  • 運(yùn)行chat.py

不出意料的報(bào)錯(cuò)了
本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理

模型加載不成功,應(yīng)該歸因于我過小的內(nèi)存orz,借了一個(gè)云服務(wù)器

嘗試運(yùn)行的過程就是不斷產(chǎn)生新的錯(cuò)誤orz

這里不將遇到的報(bào)錯(cuò)一一羅列(太多太雜了),只展示遇到的最后兩個(gè)error,uu們?nèi)绻衅渌麊栴}可以在評(píng)論區(qū)提出了,我看到了且會(huì)解決的,就回復(fù)。

下面先展示一下我使用的云服務(wù)器的配置

  • 虛擬機(jī)
    本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理
  • 顯卡 本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理
  • python版本 本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理
  • torch和torchvision
    本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理

  • ERORR_1:本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理
    原因: 我剛拿到時(shí)cuda版本(如圖)與PyThorch不兼容本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理
    解決: 升級(jí)CUDA(以及driver)的版本
# 禁用現(xiàn)有NVIDIA驅(qū)動(dòng)程序并卸載
sudo systemctl stop nvidia-persistenced
sudo systemctl stop nvidia-fabricmanager
sudo apt-get remove --purge '^nvidia-.*'
# 關(guān)閉xserver
systemctl stop gdm.service
# 下載對(duì)應(yīng)的CUDA包
wget https://developer.download.nvidia.com/compute/cuda/11.7.0/local_installers/cuda_11.7.0_515.43.04_linux.run
# 安裝(一路默認(rèn)安裝)
sudo sh cuda_11.7.0_515.43.04_linux.run
# 安裝完畢后,啟動(dòng)X Server
systemctl start gdm.service
  • ERROR_2:本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理
    誰能想到還是報(bào)OutOfMemoryError了呢orz(我說怎么就給我用了呢)
    超出內(nèi)存一般有幾種解決辦法

    1. 減少模型的大小: 可以考慮減少模型的大小,例如通過選擇更小的模型、減少模型的層數(shù)或通道數(shù)等方式,來降低內(nèi)存需求。
    2. 減少批量大小:嘗試減少輸入數(shù)據(jù)的批量大小,降低每次前向計(jì)算所需的內(nèi)存??梢試L試減小batch_size參數(shù)的值。
    3. 釋放不需要的顯存:在某些情況下,可能存在一些不需要的顯存被占用,可以使用torch.cuda.empty_cache() 來釋放不需要的顯存。
    4. 啟用混合精度訓(xùn)練:可以嘗試啟用混合精度訓(xùn)練,即使用半精度浮點(diǎn)數(shù) (torch.float16 代替默認(rèn)的單精度浮點(diǎn)數(shù) (torch.float32。這可以顯著降低內(nèi)存使用,但可能會(huì)影響模型的訓(xùn)練效果。
    5. 調(diào)整 PyTorch 內(nèi)存管理設(shè)置:可以嘗試調(diào)整 PyTorch 的內(nèi)存管理設(shè)置,例如通過設(shè)置max_split_size_mb 來避免內(nèi)存碎片化??梢栽?PyTorch 的文檔中查找有關(guān)內(nèi)存管理和PYTORCH_CUDA_ALLOC_CONF 的詳細(xì)信息。

    進(jìn)行如下改動(dòng):

    1. 將13B模型替換為7B模型
    2. model_max_length:512–>256;lora_r:8–>4
    3. 訓(xùn)練精度:bf16–>fp16
    4. load_in:8bit–>4bit
    5. 設(shè)置max_split_size_mb
      進(jìn)入batch文件(vim ~/.bashrc
      添加:export PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:32
      esc、:wq、source ~/.bashrc

調(diào)整完后,終于是可以運(yùn)行了
輸入:

CUDA_VISIBLE_DEVICES=1 python chat.py --version='./LISA-7B-v1' --precision='fp16' --load_in_4bit

p.s. --version是你下載的模型地址,這里附上我項(xiàng)目目錄
本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理還有就是為了控制云服務(wù)器我使用的軟件有:WinSCP(進(jìn)行文件傳輸和代碼修改)和PuTTY(命令行控制)

(下面是PuTTY運(yùn)行截圖)
本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理

根據(jù)提示輸入propmt語句和待分割圖片路徑:

本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理

分割后的圖像存儲(chǔ)再了./vis_output文件夾中。

但是結(jié)果不正確,可能是調(diào)整了模型的緣故吧,沒分割出LISA,分割出了ROSé

本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理

算了,這個(gè)模型就先到這里,等有再好一點(diǎn)的卡再試試,去讀paper了。
本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA),項(xiàng)目記錄,python,計(jì)算機(jī)視覺,圖像處理,交互,pytorch,自然語言處理文章來源地址http://www.zghlxwxcb.cn/news/detail-687197.html

到了這里,關(guān)于本地部署體驗(yàn)LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Segment Anything論文翻譯,SAM模型,SAM論文,SAM論文翻譯;一個(gè)用于圖像分割的新任務(wù)、模型和數(shù)據(jù)集;SA-1B數(shù)據(jù)集

    Segment Anything論文翻譯,SAM模型,SAM論文,SAM論文翻譯;一個(gè)用于圖像分割的新任務(wù)、模型和數(shù)據(jù)集;SA-1B數(shù)據(jù)集

    論文鏈接: https://arxiv.org/pdf/2304.02643.pdf https://ai.facebook.com/research/publications/segment-anything/ 代碼連接:https://github.com/facebookresearch/segment-anything 論文翻譯: http://t.csdn.cn/nnqs8 https://blog.csdn.net/leiduifan6944/article/details/130080159 本文提出Segment Anything (SA)項(xiàng)目:一個(gè)用于圖像分割的新任務(wù)

    2023年04月19日
    瀏覽(69)
  • SAM語義分割模型開源,AIGC時(shí)代,圖像摳圖工具都被大模型統(tǒng)一了?(下)

    SAM語義分割模型開源,AIGC時(shí)代,圖像摳圖工具都被大模型統(tǒng)一了?(下)

    大家好,我是千與千尋,很高興今天和大家再一次分享我在ChatGPT上的學(xué)習(xí)經(jīng)歷! 這次是《SAM語義分割模型開源,AIGC時(shí)代,圖像摳圖工具都被大模型統(tǒng)一了?》系列的最終版本了。 在之前的兩節(jié)中我們介紹了分割一切的 Segment Anything模型,以及分割視頻的 Segment-and-Track Anyth

    2024年02月13日
    瀏覽(18)
  • 使用SAM進(jìn)行遙感圖像語義分割

    使用SAM進(jìn)行遙感圖像語義分割

    Segment Anything Model(SAM)論文 Segment Anything Model(SAM)模型解讀及代碼復(fù)現(xiàn) Scaling-up Remote Sensing Segmentation Dataset with Segment Anything Model論文 The success of the Segment Anything Model (SAM) demonstrates the significance of data-centric machine learning. However, due to the difficulties and high costs associated with annotating Rem

    2024年02月07日
    瀏覽(20)
  • 文獻(xiàn)速遞:文獻(xiàn)速遞:基于SAM的醫(yī)學(xué)圖像分割--SAM-Med3D

    文獻(xiàn)速遞:文獻(xiàn)速遞:基于SAM的醫(yī)學(xué)圖像分割--SAM-Med3D

    Title? 題目 SAM-Med3D 01 文獻(xiàn)速遞介紹 醫(yī)學(xué)圖像分析已成為現(xiàn)代醫(yī)療保健不可或缺的基石,輔助診斷、治療計(jì)劃和進(jìn)一步的醫(yī)學(xué)研究]。在這一領(lǐng)域中最重要的挑戰(zhàn)之一是精確分割體積醫(yī)學(xué)圖像。盡管眾多方法在一系列目標(biāo)上展現(xiàn)了值得稱贊的有效性,但現(xiàn)有的分割技術(shù)傾向于專

    2024年04月23日
    瀏覽(99)
  • SAM + YOLOv8 圖像分割及對(duì)象檢測(cè)

    SAM + YOLOv8 圖像分割及對(duì)象檢測(cè)

    SAM(Segment Anything Model)是由 Meta 的研究人員團(tuán)隊(duì)創(chuàng)建和訓(xùn)練的深度學(xué)習(xí)模型。該創(chuàng)新成果發(fā)表在 2023 年 4 月 5 日發(fā)表的一篇研究論文中,它立即引起了公眾的廣泛興趣——相關(guān)的 Twitter 帖子迄今為止已累積超過 350 萬次瀏覽: 計(jì)算機(jī)視覺專業(yè)人士現(xiàn)在將注意力轉(zhuǎn)向 SAM——但為

    2024年02月09日
    瀏覽(22)
  • 【論文閱讀】SAM醫(yī)學(xué)圖像分割近期工作綜述

    How Segment Anything Model (SAM) Boost Medical Image Segmentation? 論文:[2305.03678] How Segment Anything Model (SAM) Boost Medical Image Segmentation? (arxiv.org) 倉庫:https://github.com/yichizhang98/sam4mis 摘要: 在這項(xiàng)工作中,我們總結(jié)了近期工作中以擴(kuò)展 SAM 醫(yī)療圖像分割的任務(wù),包括經(jīng)驗(yàn)基準(zhǔn)和方法的調(diào)整,并

    2024年02月11日
    瀏覽(25)
  • 圖像分割之SAM(Segment Anything Model)

    圖像分割之SAM(Segment Anything Model)

    論文:Segment Anything Github:https://github.com/facebookresearch/segment-anything 論文從zero-shot主干網(wǎng)絡(luò)的基礎(chǔ)出發(fā),提出了SAM(Segment Anything Model)模型。該模型有別于傳統(tǒng)的分割模型。傳統(tǒng)分割模型只能輸入原圖輸出固定的分割結(jié)果,SAM在設(shè)計(jì)上可以同時(shí)輸入原圖和特定提示(點(diǎn)、框、

    2024年02月07日
    瀏覽(27)
  • 【圖像分割】SAM:Segment Anything論文學(xué)習(xí)V1

    【圖像分割】SAM:Segment Anything論文學(xué)習(xí)V1

    論文:2304.Segment Anything 代碼: https://github.com/facebookresearch/segment-anything 官網(wǎng)與demo:https://segment-anything.com/ 【擴(kuò)展閱讀】——分割一切模型(SAM)的全面調(diào)研:2305.A Comprehensive Survey on Segment Anything Model for Vision and Beyond 【 應(yīng)用 】在stable-diffusion-webui中使用的插件:https://github.com/co

    2024年02月07日
    瀏覽(24)
  • Segment Anything Model (SAM)——分割一切,具有預(yù)測(cè)提示輸入的圖像分割實(shí)踐

    Segment Anything Model (SAM)——分割一切,具有預(yù)測(cè)提示輸入的圖像分割實(shí)踐

    不得不說,最近的AI技術(shù)圈很火熱,前面的風(fēng)頭大都是chatGPT的,自從前提Meta發(fā)布了可以分割一切的CV大模型之后,CV圈也熱起來了,昨天只是初步了解了一下SAM,然后寫了一篇基礎(chǔ)介紹說明的博客,早上一大早起來已經(jīng)有2k左右的閱讀量了。 ?我果斷跑去官方項(xiàng)目地址看下:

    2023年04月19日
    瀏覽(27)
  • [醫(yī)學(xué)分割大模型系列] (3) SAM-Med3D 分割大模型詳解

    [醫(yī)學(xué)分割大模型系列] (3) SAM-Med3D 分割大模型詳解

    論文地址:SAM-Med3D 開源地址:https://github.com/uni-medical/SAM-Med3D 發(fā)表日期:2023年10月 參考資料: 王皓宇(上海交通大學(xué))SAM-Med3D基于SAM構(gòu)建3D醫(yī)學(xué)影像通用分割模型 SAM-Med3D:三維醫(yī)學(xué)圖像上的通用分割模型,醫(yī)療版三維 SAM 開源了! SAM-Med3D (SJTU 2024) 通用分割能力:在各種3D目

    2024年04月25日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包