国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Faster RCNN訓(xùn)練自己的數(shù)據(jù)集【傻瓜式教程】

這篇具有很好參考價值的文章主要介紹了Faster RCNN訓(xùn)練自己的數(shù)據(jù)集【傻瓜式教程】。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

一、下載源碼

本文采用的源碼是:https://github.com/dBeker/Faster-RCNN-TensorFlow-Python3

二、配置環(huán)境

由于本文是小白教程,光寫幾個環(huán)境怕有人配置不好或者配置版本搞亂。Faster RCNN配置環(huán)境比較復(fù)雜。我在這直接貼圖我的環(huán)境版本圖:
fasterrcnn訓(xùn)練自己的數(shù)據(jù)集,深度學(xué)習(xí),tensorflow,人工智能,python
先安裝tensorflow-gpu,然后依次安裝cython、opencv-python、easydict、Pillow、matplotlib、scipy,版本的話看我的版本裝就行。

三、安裝C++編譯環(huán)境

根據(jù)官網(wǎng)給的安裝程序會報錯:安裝visual studio C++ build tools時遇到安裝包缺失或損壞的問題。在這直接下載離線包安裝,目前很多博主或者資源都要收費(fèi),這里免費(fèi)共享給大家百度網(wǎng)盤鏈接:

鏈接:https://pan.baidu.com/s/1ClJQQ_Tfh9OSME489bNBng
提取碼:5czp

下載后解壓,右鍵管理員身份運(yùn)行,如圖:
fasterrcnn訓(xùn)練自己的數(shù)據(jù)集,深度學(xué)習(xí),tensorflow,人工智能,python

四、編譯環(huán)境

首先進(jìn)入模型文件夾data\coco\PythonAPI下,在這個環(huán)境下進(jìn)入到自己配置的環(huán)境中,依次運(yùn)行以下命令:

python setup.py build_ext --inplace

這里會出現(xiàn)報錯:error: command ‘C:\Program Files (x86)\Microsoft Visual Studio 14.0\VC\BIN\x86_amd64\link.exe’ failed with exit status 1158
解決方案:在全局搜索工具中搜索rc.exe,沒有工具的自行去下。如圖
fasterrcnn訓(xùn)練自己的數(shù)據(jù)集,深度學(xué)習(xí),tensorflow,人工智能,python
然后一定要退出窗口重新進(jìn)入到自己配置的環(huán)境中,不退出繼續(xù)執(zhí)行還是會報這個錯。然后重新運(yùn)行以下命令:

python setup.py build_ext --inplace

接著運(yùn)行

python setup.py build_ext install

然后進(jìn)入到模型文件夾./lib/utils下,運(yùn)行以下命令:

python setup.py build_ext --inplace

做完這一步,環(huán)境就算大功告成了。

五、制作自己的數(shù)據(jù)集

在data文件夾下新建VOC2007文件夾,VOC2007文件夾結(jié)構(gòu)如圖:
fasterrcnn訓(xùn)練自己的數(shù)據(jù)集,深度學(xué)習(xí),tensorflow,人工智能,python
接下來劃分?jǐn)?shù)據(jù)集,會在ImageSets/Main下生成4個txt文件,具體看代碼:

import os
import random

trainval_percent = 0.2
train_percent = 0.8
xmlfilepath = 'data/VOC2007/Annotations'
txtsavepath = 'data/VOC2007/ImageSets/Main'
total_xml = os.listdir(xmlfilepath)

num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)

ftrainval = open('data/VOC2007/ImageSets/Main/trainval.txt', 'w')
ftest = open('data/VOC2007/ImageSets/Main/test.txt', 'w')
ftrain = open('data/VOC2007/ImageSets/Main/train.txt', 'w')
fval = open('data/VOC2007/ImageSets/Main/val.txt', 'w')

for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftrain.write(name)
        else:
            fval.write(name)
    else:
        ftest.write(name)

ftrainval.close()
ftrain.close()
fval.close()
ftest.close()

這樣數(shù)據(jù)集就算做好了。

六、開始訓(xùn)練

進(jìn)入自己配置好的環(huán)境:

python train.py

運(yùn)行開始訓(xùn)練。

七、解決報錯

1.AttributeError:module tensorflow no attribute app
解決方案:將import tensorflow as tf 改為import tensorflow.compat.v1 as tf
2.AttributeError: ‘version_info’ object has no attribute ‘version’
解決方案:
fasterrcnn訓(xùn)練自己的數(shù)據(jù)集,深度學(xué)習(xí),tensorflow,人工智能,python
找到箭頭所指文件,打開將:

class version_info(NamedTuple):
    major: int
    minor: int
    micro: int
    releaselevel: str
    serial: int

    @property
    def __version__(self):
        return "{}.{}.{}".format(self.major, self.minor, self.micro) + (
            "{}{}{}".format(
                "r" if self.releaselevel[0] == "c" else "",
                self.releaselevel[0],
                self.serial,
            ),
            "",
        )[self.releaselevel == "final"]

    def __str__(self):
        return "{} {} / {}".format(__name__, self.__version__, __version_time__)

    def __repr__(self):
        return "{}.{}({})".format(
            __name__,
            type(self).__name__,
            ", ".join("{}={!r}".format(*nv) for nv in zip(self._fields, self)),
        )

替換為:文章來源地址http://www.zghlxwxcb.cn/news/detail-782265.html

class version_info():
    def __init__(self, major: int, minor: int, micro: int, releaselevel: str, serial: int):
        self.major = major
        self.minor = minor
        self.micro = micro
        self.releaselevel = releaselevel
        self.serial = serial

    @property
    def __version__(self):
        return "{}.{}.{}".format(self.major, self.minor, self.micro) + (
            "{}{}{}".format(
                "r" if self.releaselevel[0] == "c" else "",
                self.releaselevel[0],
                self.serial,
            ),
            "",
        )[self.releaselevel == "final"]

    def __str__(self):
        return "{} {} / {}".format(__name__, self.__version__, __version_time__)

    def __repr__(self):
        return "{}.{}({})".format(
            __name__,
            type(self).__name__,
            ", ".join("{}={!r}".format(*nv) for nv in zip(self._fields, self)),
        )

到了這里,關(guān)于Faster RCNN訓(xùn)練自己的數(shù)據(jù)集【傻瓜式教程】的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【深度學(xué)習(xí)】計算機(jī)視覺(11)——Faster RCNN(下)

    接上一篇。其實(shí)沒什么東西了,只是因?yàn)閰⒖嫉奈恼绿嗵嗵嗵嗵嗵嗔藳]辦法附在文末,所以我直接新開了一篇。 參考來源: 一文讀懂Faster RCNN Cython 的簡要入門、編譯及使用 【python基礎(chǔ)】easydict的安裝與使用 TensorFlow2深度學(xué)習(xí)實(shí)戰(zhàn)(十六):目標(biāo)檢測算法Faster

    2024年02月01日
    瀏覽(23)
  • 【深度學(xué)習(xí)】計算機(jī)視覺(12)——Faster RCNN(最終篇)

    接上一篇。其實(shí)沒什么東西了,只是因?yàn)閰⒖嫉奈恼绿嗵嗵嗵嗵嗵嗔藳]辦法附在文末,所以我直接新開了一篇。 參考來源: 一文讀懂Faster RCNN Cython 的簡要入門、編譯及使用 【python基礎(chǔ)】easydict的安裝與使用 TensorFlow2深度學(xué)習(xí)實(shí)戰(zhàn)(十六):目標(biāo)檢測算法Faster

    2024年02月02日
    瀏覽(30)
  • 基于Pytorch構(gòu)建Faster-RCNN網(wǎng)絡(luò)進(jìn)行目標(biāo)檢測(二)——預(yù)訓(xùn)練模型和預(yù)測

    基于Pytorch構(gòu)建Faster-RCNN網(wǎng)絡(luò)進(jìn)行目標(biāo)檢測(二)——預(yù)訓(xùn)練模型和預(yù)測

    CoCo的全稱是Common Objects in Context,是微軟團(tuán)隊(duì)提供的一個可以用來進(jìn)行圖像識別的數(shù)據(jù)集,包括檢測、分割、關(guān)鍵點(diǎn)估計等任務(wù),目前用的比較多的是Coco2017數(shù)據(jù)集。 Coco2017數(shù)據(jù)集是一個包含有大量圖像和標(biāo)注數(shù)據(jù)的開放數(shù)據(jù)集,它是微軟公司在COCO項(xiàng)目基礎(chǔ)上發(fā)展而來。這個

    2024年02月09日
    瀏覽(27)
  • 深度學(xué)習(xí)目標(biāo)檢測項(xiàng)目實(shí)戰(zhàn)(六)-基于Faster rcnn pytorch的遙感圖像檢測

    深度學(xué)習(xí)目標(biāo)檢測項(xiàng)目實(shí)戰(zhàn)(六)-基于Faster rcnn pytorch的遙感圖像檢測

    代碼:https://github.com/jwyang/faster-rcnn.pytorch/tree/pytorch-1.0 使用RSOD遙感數(shù)據(jù)集,VOC的數(shù)據(jù)格式如下: RSOD是一個開放的目標(biāo)檢測數(shù)據(jù)集,用于遙感圖像中的目標(biāo)檢測。數(shù)據(jù)集包含飛機(jī),油箱,運(yùn)動場和立交橋,以PASCAL VOC數(shù)據(jù)集的格式進(jìn)行標(biāo)注。 數(shù)據(jù)集包括4個文件夾,每個文件夾

    2024年02月06日
    瀏覽(31)
  • Faster-RCNN環(huán)境搭配及運(yùn)行教程

    Faster-RCNN環(huán)境搭配及運(yùn)行教程

    最近正在學(xué)習(xí)Faster-RCNN,環(huán)境歷經(jīng)一天時間終于成功安裝,借此記錄下整體安裝過程 本教程是Windows 10 + Python35 + CUDA 10.0 + cudnn 7.4.1.5 + tensorflow-gpu 1.13.2環(huán)境的配置過程 所使用的軟件包括 名稱 版本 CUDA 10.0 CUDNN 7.4.1.5 Anaconda3 4.2.0 Pycharm 2019.3.5 整體過程中所需要的軟件包我都放在

    2024年02月04日
    瀏覽(26)
  • 深度學(xué)習(xí):使用UNet做圖像語義分割,訓(xùn)練自己制作的數(shù)據(jù)集,詳細(xì)教程

    深度學(xué)習(xí):使用UNet做圖像語義分割,訓(xùn)練自己制作的數(shù)據(jù)集,詳細(xì)教程

    語義分割(Semantic Segmentation)是圖像處理和機(jī)器視覺一個重要分支。與分類任務(wù)不同,語義分割需要判斷圖像每個像素點(diǎn)的類別,進(jìn)行精確分割。語義分割目前在自動駕駛、自動摳圖、醫(yī)療影像等領(lǐng)域有著比較廣泛的應(yīng)用。我總結(jié)了使用UNet網(wǎng)絡(luò)做圖像語義分割的方法,教程很詳

    2024年02月03日
    瀏覽(43)
  • 深度學(xué)習(xí):使用UNet做圖像語義分割,訓(xùn)練自己制作的數(shù)據(jù)集并推理測試(詳細(xì)圖文教程)

    深度學(xué)習(xí):使用UNet做圖像語義分割,訓(xùn)練自己制作的數(shù)據(jù)集并推理測試(詳細(xì)圖文教程)

    語義分割(Semantic Segmentation)是圖像處理和機(jī)器視覺一個重要分支。與分類任務(wù)不同,語義分割需要判斷圖像每個像素點(diǎn)的類別,進(jìn)行精確分割。語義分割目前在自動駕駛、自動摳圖、醫(yī)療影像等領(lǐng)域有著比較廣泛的應(yīng)用。我總結(jié)了使用UNet網(wǎng)絡(luò)做圖像語義分割的方法,教程很詳

    2024年01月18日
    瀏覽(35)
  • [探地雷達(dá)]利用Faster RCNN對B-SCAN探地雷達(dá)數(shù)據(jù)進(jìn)行目標(biāo)檢測

    [探地雷達(dá)]利用Faster RCNN對B-SCAN探地雷達(dá)數(shù)據(jù)進(jìn)行目標(biāo)檢測

    引用量較高的一篇會議論文。 由于真實(shí)雷達(dá)圖像較少,作者采用了GPR工具箱,使用不同配置,合成了部分模擬雷達(dá)圖。然后采用Cifar-10數(shù)據(jù)(灰度圖)對Faster RCNN進(jìn)行預(yù)訓(xùn)練,再采用真實(shí)和合成數(shù)據(jù)進(jìn)行微調(diào)。 論文地址https://arxiv.org/pdf/1803.08414.pdf 探地雷達(dá)(GPR)是應(yīng)用最廣泛的

    2024年02月12日
    瀏覽(21)
  • 目標(biāo)檢測前言,RCNN,F(xiàn)ast RCNN,F(xiàn)aster RCNN

    目標(biāo)檢測前言,RCNN,F(xiàn)ast RCNN,F(xiàn)aster RCNN

    找到概率最高的目標(biāo)之后,與其他目標(biāo)進(jìn)行IOU交并比計算,若高于一定值,則說明這兩張圖片預(yù)測的是同一個目標(biāo),則把概率低的目標(biāo)刪掉 因?yàn)槭侵苯拥玫教卣鲌D之后進(jìn)行映射,所以不限制輸入圖像尺寸 Gx,Gy是調(diào)整中心點(diǎn),Dx(P)是回歸參數(shù),exp就是e的多少次方 從提取到的

    2024年02月07日
    瀏覽(40)
  • 目標(biāo)檢測——Faster RCNN

    目標(biāo)檢測——Faster RCNN

    Faster RCNN是由 R-CNN、Fast R-CNN 改進(jìn)而來,是非常經(jīng)典的目標(biāo)檢測的兩階段網(wǎng)絡(luò)。 此篇博客是我通過學(xué)習(xí)以下優(yōu)秀博客歸納整理而得: 一文讀懂Faster RCNN - 知乎 Faster R-CNN詳解和網(wǎng)絡(luò)模型搭建 - 知乎 Faster R-CNN:詳解目標(biāo)檢測的實(shí)現(xiàn)過程 - 郭耀華 - 博客園 yolov5與Faster-RCNN 訓(xùn)練過程

    2024年02月06日
    瀏覽(33)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包