国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

InternImage segmentation部分代碼復(fù)現(xiàn)及訓(xùn)練自己的數(shù)據(jù)集(一)

這篇具有很好參考價(jià)值的文章主要介紹了InternImage segmentation部分代碼復(fù)現(xiàn)及訓(xùn)練自己的數(shù)據(jù)集(一)。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

所謂“復(fù)現(xiàn)”,不過是跑通了官方的代碼,以下僅為個(gè)人的一些經(jīng)驗(yàn)和理解,歡迎指正。

(其實(shí)僅作為個(gè)人學(xué)習(xí)使用,也歡迎交流)

首先貼出官方文獻(xiàn)和代碼:

官方文獻(xiàn):InternImage: Exploring Large-Scale Vision Foundation Models with Deformable Convolutions,鏈接:InternImage: Exploring Large-Scale Vision Foundation Models with Deformable Convolutions | Papers With Code官方Github代碼:GitHub - OpenGVLab/InternImage: [CVPR 2023 Highlight] InternImage: Exploring Large-Scale Vision Foundation Models with Deformable Convolutions

一、代碼復(fù)現(xiàn)

1、配置信息

????????Linux系統(tǒng)Ubuntu 9.4.0(在Windows上跑會出現(xiàn)各種各樣的問題,主要是包不兼容的問題),4卡,Cuda 11.1。

2、環(huán)境配置

????????下載了官方代碼解壓,得到以下文件:

InternImage segmentation部分代碼復(fù)現(xiàn)及訓(xùn)練自己的數(shù)據(jù)集(一),InternImage復(fù)現(xiàn),深度學(xué)習(xí),人工智能,python

????????進(jìn)入? ?./segmentation 文件夾下,用Notepad++軟件打開README.md文件,跟據(jù)上面的內(nèi)容配置環(huán)境。

3、數(shù)據(jù)集準(zhǔn)備

????????ADE20K數(shù)據(jù)集下載:

? ? ? ? 官網(wǎng)下載:ADE20K dataset (mit.edu),這里的訓(xùn)練測試只用到?ADEChallengeData2016?數(shù)據(jù)集(MIT Scene Parsing Challenge 2016)就可以了。這里再附上百度網(wǎng)盤下載鏈接:鏈接:https://pan.baidu.com/s/1VWVzoeIgzDbFgo_RXcQ_Mw?pwd=mv4j?提取碼:mv4j

? ? ? ? 關(guān)于數(shù)據(jù)集的介紹請看官網(wǎng),下面的訓(xùn)練和測試都是基于ADEChallengeData2016進(jìn)行。

4、測試(test.py部分)

? ? ? ? 將數(shù)據(jù)集上傳到Linux系統(tǒng),官方代碼默認(rèn)讀取路徑是 ./segmentation/data/ADEChallenge Data2016/... ,如果不想改代碼的話,就在 ./segmentation 文件夾下新建一個(gè) data 文件夾,然后把ADEChallengeData2016數(shù)據(jù)集加載到data文件夾下。數(shù)據(jù)集組織格式如下(官方代碼默認(rèn)):

---------------
    |
    |--ADEChallengeData2016
         |
         |--annotations
         |    |
         |    |--training
         |    |    |
         |    |    |--ADE_train_00000001.png
         |    |    |--ADE_train_00000002.png
         |    |    |--……
         |    |    
         |    |--validation
         |    |    |
         |    |    |--ADE_val_00000001.png
         |    |    |--ADE_val_00000002.png
         |    |    |--……
         |    
         |--images
         |    |
         |    |--training
         |    |    |
         |    |    |--ADE_train_00000001.png
         |    |    |--ADE_train_00000002.png
         |    |    |--……
         |    |    
         |    |--validation
         |    |    |
         |    |    |--ADE_val_00000001.png
         |    |    |--ADE_val_00000002.png
         |    |    |--……
         |    |

????????若數(shù)據(jù)集放于其它路徑下,則需要通過修改代碼來進(jìn)行數(shù)據(jù)集的讀取,這里有兩種解決辦法:

? ? ? ? 方法一:修改test.py文件代碼。

? ? ? ? 找到讀取數(shù)據(jù)集的代碼行:

dataset = build_dataset(cfg.data.test)   #建立數(shù)據(jù)集

? ? ? ? 在該代碼行前一行添加代碼:

cfg.data.test['data_root'] = 'E:/data/ADE20K/ADEChallengeData2016'   #通過這個(gè)命令行改變測試集的位置,添加你的測試集路徑
dataset = build_dataset(cfg.data.test)   #建立數(shù)據(jù)集

? ? ? ? 這樣修改之后,代碼就會跟據(jù)你指明的路徑讀取數(shù)據(jù),數(shù)據(jù)集的組織形式依舊如上面代碼塊所示。若更改組織形式,則需要指明圖片所在路徑和標(biāo)注文件所在路徑,如下面代碼所示:

cfg.data.test['data_root'] = 'E:/data/ADE20K/ADEChallengeData2016'   #通過這個(gè)命令行改變測試集的位置,添加你的測試集路徑
cfg.data.test['img_dir'] = 'val/Images'  #指向圖片文件的路徑,圖片文件的完整路徑為:cfg.data.test['data_root'] + cfg.data.test['img_dir']
cfg.data.test['ann_dir'] = 'val/Masks'  #指向標(biāo)注文件的路徑,標(biāo)注文件的完整路徑為:cfg.data.test['data_root'] + cfg.data.test['ann_dir']

dataset = build_dataset(cfg.data.test)   #建立數(shù)據(jù)集

? ? ? ?

????????方法二:通過修改數(shù)據(jù)讀取的底層文件實(shí)現(xiàn),參考:(64條消息) mmsegmentation教程1:自定義數(shù)據(jù)集、config文件修改、訓(xùn)練教程_AESA相控陣的博客-CSDN博客

? ? ? ? 模型參數(shù)(.pth文件)下載:GitHub - OpenGVLab/InternImage: [CVPR 2023 Highlight] InternImage: Exploring Large-Scale Vision Foundation Models with Deformable Convolutions

? ? ? ? 跟據(jù)你的模型需要,下載ckpt的鏈接文件并保存到你的文件中(即下文代碼的[your_wei ght_path])。

InternImage segmentation部分代碼復(fù)現(xiàn)及訓(xùn)練自己的數(shù)據(jù)集(一),InternImage復(fù)現(xiàn),深度學(xué)習(xí),人工智能,python

? ? ? ? 做到以上準(zhǔn)備之后,運(yùn)行以下代碼就可以查看模型在ADE20K數(shù)據(jù)集上的測試結(jié)果:

python test.py configs/ade20k/upernet_internimage_t_512_160k_ade20k.py [your_weight_path]/upernet_internimage_t_512_160k_ade20k.pth --eval mIoU

5、訓(xùn)練(train.py部分)

? ? ? ? 與第4部分類似,需要準(zhǔn)備數(shù)據(jù)集修改數(shù)據(jù)讀取代碼,模型訓(xùn)練不需要下載模型參數(shù)文件。準(zhǔn)備好數(shù)據(jù)集和修改數(shù)據(jù)讀取代碼之后,運(yùn)行以下代碼(README.md)。

sh dist_train.sh configs/ade20k/upernet_internimage_t_512_160k_ade20k.py 8

????????可能會出現(xiàn)報(bào)錯(cuò),原因是 sh 命令被版本舍棄了(具體原因自己網(wǎng)上搜索)?將 sh 命令換為 bash 命令就可以了,即:

bash dist_train.sh configs/ade20k/upernet_internimage_t_512_160k_ade20k.py 8

????????文章來源地址http://www.zghlxwxcb.cn/news/detail-624663.html

到了這里,關(guān)于InternImage segmentation部分代碼復(fù)現(xiàn)及訓(xùn)練自己的數(shù)據(jù)集(一)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Segment Anything Model(SAM)模型解讀及代碼復(fù)現(xiàn)

    Segment Anything Model(SAM)模型解讀及代碼復(fù)現(xiàn)

    Segment Anything Model論文 Segment Anything Model官網(wǎng) Segment Anything Model官網(wǎng)demo網(wǎng)頁端 Segment Anything Model模型源碼 SAM應(yīng)用:生成包含語義信息的遙感圖像分割結(jié)果 We introduce the Segment Anything (SA) project: a new task, model, and dataset for image segmentation. Using our efficient model in a data collection loop, we bu

    2024年02月06日
    瀏覽(24)
  • 【swinUnet官方代碼測試自己的數(shù)據(jù)集(已訓(xùn)練完畢)】

    【swinUnet官方代碼測試自己的數(shù)據(jù)集(已訓(xùn)練完畢)】

    首先參考上一篇的訓(xùn)練過程,因?yàn)闇y試需要用到訓(xùn)練獲得的權(quán)重。 1、檢查相關(guān)文件 1.1 檢查test_vol.txt的內(nèi)容是否是測試用的npz文件名稱 測試集的npz文件 1.2 檢查模型權(quán)重文件 2、修改部分代碼 2.1 修改dataset_synapse.py 2.2 修改test.py代碼 修改相關(guān)參數(shù)和文件路徑 is_savenii:是否保

    2024年02月02日
    瀏覽(21)
  • TransUnet官方代碼測試自己的數(shù)據(jù)集(已訓(xùn)練完畢)

    TransUnet官方代碼測試自己的數(shù)據(jù)集(已訓(xùn)練完畢)

    首先參考上一篇的訓(xùn)練過程,這是測試過程,需要用到訓(xùn)練過程的權(quán)重。 1. TransUnet訓(xùn)練完畢之后,會生成權(quán)重文件(默認(rèn)保存位置如下),snapshot_path為保存權(quán)重的路徑。 權(quán)重文件 2. 修改test.py文件 調(diào)整數(shù)據(jù)集路徑。 訓(xùn)練和測試時(shí)的圖像設(shè)置相同大小,并設(shè)置主干模型的名稱

    2024年02月01日
    瀏覽(140)
  • yolov8代碼梳理 訓(xùn)練自己的數(shù)據(jù) 最終版

    yolov8代碼梳理 訓(xùn)練自己的數(shù)據(jù) 最終版

    最開始為了檢測不規(guī)則的麻包袋,所以采用了目標(biāo)檢測。yolov3,fasterrcnn,ssd。這種矩形框還是可以用。后面檢測的物體變成了規(guī)則的紙箱,我們還用目標(biāo)檢測發(fā)現(xiàn),沒有旋轉(zhuǎn)角度,因?yàn)橄渥拥臄[放不是正的。只能通過opencv的minarea去找到最小矩形框去尋找角度。但是opencv的方

    2024年02月12日
    瀏覽(26)
  • 【自用】SAM模型論文筆記與復(fù)現(xiàn)代碼(segment-anything-model)

    【自用】SAM模型論文筆記與復(fù)現(xiàn)代碼(segment-anything-model)

    一個(gè) prompt encoder ,對提示進(jìn)行編碼, image encoder 對圖像編碼,生成embedding, 最后融合2個(gè) encoder ,再接一個(gè)輕量的 mask decoder ,輸出最后的mask。 模型結(jié)構(gòu)示意圖: 流程圖: 模型的結(jié)構(gòu)如上圖所示. prompt會經(jīng)過 prompt encoder , 圖像會經(jīng)過 image encoder 。然后將兩部分embedding經(jīng)過一個(gè)

    2024年01月24日
    瀏覽(24)
  • Learning to Segment Rigid Motions from Two Frames 代碼復(fù)現(xiàn)

    Learning to Segment Rigid Motions from Two Frames 代碼復(fù)現(xiàn)

    https://github.com/gengshan-y/rigidmask 1.拉取代碼 2.創(chuàng)建conda環(huán)境,修改rigidmask.yml DCNv2和ngransac 1.下載數(shù)據(jù)集和模型 KITTI-SF: https://s3.eu-central-1.amazonaws.com/avg-kitti/data_scene_flow.zip Sintel rigidity map : http://files.is.tue.mpg.de/jwulff/mrflow/sintel_rigiditymaps.zip 2.測試一下

    2024年02月06日
    瀏覽(17)
  • TransUnet官方代碼訓(xùn)練自己數(shù)據(jù)集(彩色RGB3通道圖像的分割)

    TransUnet官方代碼訓(xùn)練自己數(shù)據(jù)集(彩色RGB3通道圖像的分割)

    官方代碼:https://github.com/Beckschen/TransUNet 目的:訓(xùn)練5個(gè)類別的汽車部件分割任務(wù)(測試在另一篇博客中) CSDN數(shù)據(jù)集免費(fèi)下載 實(shí)現(xiàn)效果: 1. github下載代碼,并解壓。 項(xiàng)目里的文件可能跟你下載的不一樣,不急后面會講到! 2. 配置數(shù)據(jù)集(盡最大努力還原官方數(shù)據(jù)集的格式)

    2024年02月04日
    瀏覽(23)
  • 手寫數(shù)學(xué)公式識別領(lǐng)域最新論文CAN代碼梳理,以及用自己的數(shù)據(jù)集訓(xùn)練

    手寫數(shù)學(xué)公式識別領(lǐng)域最新論文CAN代碼梳理,以及用自己的數(shù)據(jù)集訓(xùn)練

    Counting-Aware Network(CAN)-手寫數(shù)學(xué)公式識別網(wǎng)絡(luò)是好未來與白翔團(tuán)隊(duì)一起發(fā)布的一篇2022年的被ECCV收錄的論文,該論文旨在緩解目前大部分基于注意力機(jī)制的手寫數(shù)學(xué)公式識別算法在處理較長或者空間結(jié)構(gòu)較復(fù)雜的數(shù)學(xué)公式時(shí),容易出現(xiàn)的注意力不準(zhǔn)確的情況。該論文通過將符號

    2024年02月07日
    瀏覽(21)
  • U2Net、U2NetP分割模型訓(xùn)練---自定義dataset、訓(xùn)練代碼訓(xùn)練自己的數(shù)據(jù)集

    U2Net、U2NetP分割模型訓(xùn)練---自定義dataset、訓(xùn)練代碼訓(xùn)練自己的數(shù)據(jù)集

    前言 博客很久沒有更新了,今天就來更新一篇博客吧,哈哈; 最近在做圖像分割相關(guān)的任務(wù),因此,寫這么一篇博客來簡單實(shí)現(xiàn)一下分割是怎么做的,內(nèi)容簡單,枯燥,需要耐心看,哈哈; 博客的內(nèi)容相對簡單,比較適合剛接觸分割的同學(xué)參考學(xué)習(xí)(這篇博客在算法訓(xùn)練上

    2024年02月05日
    瀏覽(14)
  • PointNet系列代碼復(fù)現(xiàn)詳解(1)—PointNet分類部分

    PointNet系列代碼復(fù)現(xiàn)詳解(1)—PointNet分類部分

    想盡快入門點(diǎn)云,因此就從這個(gè)經(jīng)典的點(diǎn)云處理神經(jīng)網(wǎng)絡(luò)開始。源碼已經(jīng)有了中文注釋,但在一些對于自己不理解的地方添加了一些注釋。歡迎大家一起討論。 代碼是來自github:GitHub - yanx27/Pointnet_Pointnet2_pytorch: PointNet and PointNet++ implemented by pytorch (pure python) and on ModelNet, Sha

    2024年02月08日
    瀏覽(17)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包