国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Lnton羚通關(guān)于【PyTorch】教程:torchvision 目標(biāo)檢測(cè)微調(diào)

這篇具有很好參考價(jià)值的文章主要介紹了Lnton羚通關(guān)于【PyTorch】教程:torchvision 目標(biāo)檢測(cè)微調(diào)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

torchvision 目標(biāo)檢測(cè)微調(diào)
本教程將使用Penn-Fudan Database for Pedestrian Detection and Segmentation 微調(diào) 預(yù)訓(xùn)練的Mask R-CNN 模型。 它包含 170 張圖片,345 個(gè)行人實(shí)例。

定義數(shù)據(jù)集
用于訓(xùn)練目標(biāo)檢測(cè)、實(shí)例分割和人物關(guān)鍵點(diǎn)檢測(cè)的參考腳本允許輕松支持添加新的自定義數(shù)據(jù)集。數(shù)據(jù)集應(yīng)繼承自標(biāo)準(zhǔn)的 torch.utils.data.dataset 類,并實(shí)現(xiàn) __len__ 和 __getitem__ 。

__getitem__ 需要返回:

image: PIL 圖像 (H, W)
target: 字典數(shù)據(jù),需要包含字段
boxes (FloatTensor[N, 4]): N 個(gè) Bounding box 的位置坐標(biāo) [x0, y0, x1, y1], 0~W, 0~H
labels (Int64Tensor[N]): 每個(gè) Bounding box 的類別標(biāo)簽,0 代表背景類。
image_id (Int64Tensor[1]): 圖像的標(biāo)簽 id,在數(shù)據(jù)集中是唯一的。
area (Tensor[N]): Bounding box 的面積,在 COCO 度量里使用,可以分別對(duì)不同大小的目標(biāo)進(jìn)行度量。
iscrowd (UInt8Tensor[N]): 如果 iscrowd=True 在評(píng)估時(shí)忽略。
(optionally) masks (UInt8Tensor[N, H, W]): 可選的 分割掩碼
(optionally) keypoints (FloatTensor[N, K, 3]): 對(duì)于 N 個(gè)目標(biāo)來(lái)說(shuō),包含 K 個(gè)關(guān)鍵點(diǎn) [x, y, visibility], visibility=0 表示關(guān)鍵點(diǎn)不可見。
如果模型可以返回上述方法,可以在訓(xùn)練、評(píng)估都能使用,可以用 pycocotools 里的腳本進(jìn)行評(píng)估。

pip install pycocotools 安裝工具。

關(guān)于 labels 有個(gè)說(shuō)明,模型默認(rèn) 0 為背景。如果數(shù)據(jù)集沒(méi)有背景類別,不需要在標(biāo)簽里添加 0 。 例如,假設(shè)有 cat 和 dog 兩類,定義了 1 表示 cat , 2 表示 dog , 如果一個(gè)圖像有兩個(gè)類別,類別的 tensor 為 [1, 2] 。

此外,如果希望在訓(xùn)練時(shí)使用縱橫比分組,那么建議實(shí)現(xiàn) get_height_and_width 方法,該方法將返回圖像的高度和寬度,如果未提供此方法,我們將通過(guò) __getitem__ 查詢數(shù)據(jù)集的所有元素,這會(huì)將圖像加載到內(nèi)存中,并且比提供自定義方法的速度慢。

為 PennFudan 寫自定義數(shù)據(jù)集
文件夾結(jié)構(gòu)如下:

PennFudanPed/
  PedMasks/
    FudanPed00001_mask.png
    FudanPed00002_mask.png
    FudanPed00003_mask.png
    FudanPed00004_mask.png
    ...
  PNGImages/
    FudanPed00001.png
    FudanPed00002.png
    FudanPed00003.png
    FudanPed00004.png

這是圖像的標(biāo)注信息,包含了?mask?以及?bounding box?。每個(gè)圖像都有對(duì)應(yīng)的分割掩碼,每個(gè)顏色代表不同的實(shí)例。

Lnton羚通關(guān)于【PyTorch】教程:torchvision 目標(biāo)檢測(cè)微調(diào),算法,pytorch,目標(biāo)檢測(cè),人工智能

Lnton羚通關(guān)于【PyTorch】教程:torchvision 目標(biāo)檢測(cè)微調(diào),算法,pytorch,目標(biāo)檢測(cè),人工智能

import os 
import numpy as np 
import torch 
from PIL import Image

class PennFudanDataset(torch.utils.data.Dataset):
    def __init__(self, root, transforms):
        self.root = root
        self.transforms = transforms
    
        ## 加載所有圖像,sort 保證他們能夠?qū)?yīng)起來(lái)
        self.images = list(sorted(os.listdir(os.path.join(self.root, 'PNGImages'))))
        self.masks = list(sorted(os.listdir(os.path.join(self.root, 'PedMasks'))))
    
    def __getitem__(self, idx):
        img_path = os.path.join(self.root, 'PNGImages', self.images[idx])
        mask_path = os.path.join(self.root, 'PedMasks', self.masks[idx])
        image = Image.open(img_path).convert('RGB')
    
        ## mask 圖像并沒(méi)有轉(zhuǎn)換為 RGB,里面存儲(chǔ)的是標(biāo)簽,0表示的是背景
        mask = Image.open(mask_path)
    
        # 轉(zhuǎn)換為 numpy
        mask = np.array(mask) 
    
        # 實(shí)例解碼成不同的顏色
        obj_ids = np.unique(mask)
    
        # 移除背景
        obj_ids = obj_ids[1:]
    
        masks = mask == obj_ids[:, None, None]
    
        # get bounding box coordinates for each mask
        num_objs = len(obj_ids)
        boxes = []
        for i in range(num_objs):
            pos = np.where(masks[i])
            xmin = np.min(pos[1])
            xmax = np.max(pos[1])
            ymin = np.min(pos[0])
            ymax = np.max(pos[0])
            boxes.append([xmin, ymin, xmax, ymax])
        
        # 轉(zhuǎn)換為 tensor
        boxes = torch.as_tensor(boxes, dtype=torch.float32)
        labels = torch.ones((num_objs,), dtype=torch.int64)
        masks = torch.as_tensor(masks, dtype=torch.uint8)
        image_id = torch.tensor([idx])
        area = (boxes[:, 3] - boxes[:, 1]) * (boxes[:, 2] - boxes[:, 0])
        iscrowd = torch.zeros((num_objs,), dtype=torch.int64)
    
        target = {}
    
        target["boxes"] = boxes
        target["labels"] = labels
        target["masks"] = masks
        target["image_id"] = image_id
        target["area"] = area
        target["iscrowd"] = iscrowd
    
        if self.transforms is not None:
            image, target = self.transforms(image, target)
    
        return image, target
  
    def __len__(self):
        return len(self.images)

Lnton羚通專注于音視頻算法、算力、云平臺(tái)的高科技人工智能企業(yè)。 公司基于視頻分析技術(shù)、視頻智能傳輸技術(shù)、遠(yuǎn)程監(jiān)測(cè)技術(shù)以及智能語(yǔ)音融合技術(shù)等, 擁有多款可支持ONVIF、RTSP、GB/T28181等多協(xié)議、多路數(shù)的音視頻智能分析服務(wù)器/云平臺(tái)。

Lnton羚通關(guān)于【PyTorch】教程:torchvision 目標(biāo)檢測(cè)微調(diào),算法,pytorch,目標(biāo)檢測(cè),人工智能文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-658668.html

到了這里,關(guān)于Lnton羚通關(guān)于【PyTorch】教程:torchvision 目標(biāo)檢測(cè)微調(diào)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • jetson nx目標(biāo)檢測(cè)環(huán)境配置遇到的一萬(wàn)個(gè)坑,安裝v1.12.0版本的pytorch和v0.13.0版本的vision torchvision,以及使用TensorRT部署YOLOv5.

    jetson nx目標(biāo)檢測(cè)環(huán)境配置遇到的一萬(wàn)個(gè)坑,安裝v1.12.0版本的pytorch和v0.13.0版本的vision torchvision,以及使用TensorRT部署YOLOv5.

    本文參考了許多官網(wǎng)和博客,肯定是存在抄襲的,請(qǐng)各位大哥不要噴我啊。 自己工作找到的是醫(yī)學(xué)信號(hào)方向的算法工程師,所以以后和CV可能無(wú)緣了,將自己一個(gè)多星期的心血?dú)v程發(fā)表出來(lái),希望大家接起我的CV火炬,接著前行,各位加油?。ê竺嬉矊W(xué)習(xí)了yolov5-6.0 yolov7的模型

    2024年02月05日
    瀏覽(25)
  • Lnton羚通算法算力云平臺(tái)預(yù)防高空墜物,打造天臺(tái)安全防范監(jiān)測(cè)場(chǎng)景解決方案

    Lnton羚通算法算力云平臺(tái)預(yù)防高空墜物,打造天臺(tái)安全防范監(jiān)測(cè)場(chǎng)景解決方案

    Lnton羚通的算法算力云平臺(tái)具有突出的特點(diǎn),包括高性能、高可靠性、高可擴(kuò)展性和低成本。用戶可以通過(guò)該云平臺(tái)獲得高效、強(qiáng)大的算法計(jì)算服務(wù),快速、靈活地執(zhí)行各種復(fù)雜的計(jì)算模型和算法,涉及機(jī)器學(xué)習(xí)、人工智能、大數(shù)據(jù)分析和圖像識(shí)別等廣泛領(lǐng)域。此外,云平臺(tái)

    2024年02月04日
    瀏覽(23)
  • 利用torchvision庫(kù)實(shí)現(xiàn)目標(biāo)檢測(cè)與語(yǔ)義分割

    利用torchvision庫(kù)實(shí)現(xiàn)目標(biāo)檢測(cè)與語(yǔ)義分割

    利用torchvision庫(kù)實(shí)現(xiàn)目標(biāo)檢測(cè)與語(yǔ)義分割。 ? ? ? ? Pytorch預(yù)訓(xùn)練模型、內(nèi)置模型實(shí)現(xiàn)圖像分類、檢測(cè)和分割

    2024年02月10日
    瀏覽(19)
  • mmdetection基于 PyTorch 的目標(biāo)檢測(cè)開源工具箱 入門教程

    mmdetection基于 PyTorch 的目標(biāo)檢測(cè)開源工具箱 入門教程

    MMDetection 支持在 Linux,Windows 和 macOS 上運(yùn)行。它需要 Python 3.7 以上,CUDA 9.2 以上和 PyTorch 1.8 及其以上。 步驟 0. ?從官方網(wǎng)站下載并安裝 Miniconda。 步驟 1. ?創(chuàng)建并激活一個(gè) conda 環(huán)境。 步驟 2. ?基于?PyTorch 官方說(shuō)明安裝 PyTorch。 在 GPU 平臺(tái)上: 步驟 3. ?使用?MIM?安裝?MMEng

    2024年02月11日
    瀏覽(20)
  • 睿智的目標(biāo)檢測(cè)65——Pytorch搭建DETR目標(biāo)檢測(cè)平臺(tái)

    睿智的目標(biāo)檢測(cè)65——Pytorch搭建DETR目標(biāo)檢測(cè)平臺(tái)

    基于Transformer的目標(biāo)檢測(cè)一直沒(méi)弄,補(bǔ)上一下。 https://github.com/bubbliiiing/detr-pytorch 喜歡的可以點(diǎn)個(gè)star噢。 在學(xué)習(xí)DETR之前,我們需要對(duì)DETR所做的工作有一定的了解,這有助于我們后面去了解網(wǎng)絡(luò)的細(xì)節(jié)。上面這幅圖是論文里的Fig. 2,比較好的展示了整個(gè)DETR的工作原理。整個(gè)

    2024年01月17日
    瀏覽(21)
  • 睿智的目標(biāo)檢測(cè)66——Pytorch搭建YoloV8目標(biāo)檢測(cè)平臺(tái)

    睿智的目標(biāo)檢測(cè)66——Pytorch搭建YoloV8目標(biāo)檢測(cè)平臺(tái)

    又搞了個(gè)YoloV8,看起來(lái)似乎在搶這個(gè)名字。 https://github.com/bubbliiiing/yolov8-pytorch 喜歡的可以點(diǎn)個(gè)star噢。 很多細(xì)節(jié)與YoloV7關(guān)系并不大,大概不是同一組人開發(fā)的原因。 1、主干部分:與此前的YoloV5系列差距不大,不過(guò)相比之前第一次卷積的卷積核縮小了,是3而不是6。另外CSP模

    2024年02月06日
    瀏覽(25)
  • 睿智的目標(biāo)檢測(cè)——Pytorch搭建YoloV7-3D單目圖像目標(biāo)檢測(cè)平臺(tái)

    睿智的目標(biāo)檢測(cè)——Pytorch搭建YoloV7-3D單目圖像目標(biāo)檢測(cè)平臺(tái)

    睿智的目標(biāo)檢測(cè)——Pytorch搭建YoloV7-3D單目圖像目標(biāo)檢測(cè)平臺(tái) 學(xué)習(xí)前言 源碼下載 YoloV7-3D改進(jìn)的部分(不完全) YoloV7-3D實(shí)現(xiàn)思路 一、整體結(jié)構(gòu)解析 二、網(wǎng)絡(luò)結(jié)構(gòu)解析 1、主干網(wǎng)絡(luò)Backbone介紹 2、構(gòu)建FPN特征金字塔進(jìn)行加強(qiáng)特征提取 3、利用Yolo Head獲得預(yù)測(cè)結(jié)果 三、預(yù)測(cè)結(jié)果的解

    2024年02月16日
    瀏覽(29)
  • 睿智的目標(biāo)檢測(cè)——Pytorch搭建YoloV7-OBB旋轉(zhuǎn)目標(biāo)檢測(cè)平臺(tái)

    睿智的目標(biāo)檢測(cè)——Pytorch搭建YoloV7-OBB旋轉(zhuǎn)目標(biāo)檢測(cè)平臺(tái)

    睿智的目標(biāo)檢測(cè)——Pytorch搭建[YoloV7-OBB]旋轉(zhuǎn)目標(biāo)檢測(cè)平臺(tái) 學(xué)習(xí)前言 源碼下載 YoloV7-OBB改進(jìn)的部分(不完全) YoloV7-OBB實(shí)現(xiàn)思路 一、整體結(jié)構(gòu)解析 二、網(wǎng)絡(luò)結(jié)構(gòu)解析 1、主干網(wǎng)絡(luò)Backbone介紹 2、構(gòu)建FPN特征金字塔進(jìn)行加強(qiáng)特征提取 3、利用Yolo Head獲得預(yù)測(cè)結(jié)果 三、預(yù)測(cè)結(jié)果的解

    2024年02月04日
    瀏覽(23)
  • 基于 PyTorch 的目標(biāo)檢測(cè)(YOLO實(shí)現(xiàn))

    基于 PyTorch 的目標(biāo)檢測(cè)(YOLO實(shí)現(xiàn))

    目標(biāo)檢測(cè)是一個(gè)直到最近才開始逐漸被征服的挑戰(zhàn)。解決這個(gè)問(wèn)題對(duì)于自動(dòng)化和自動(dòng)駕駛來(lái)說(shuō)是至關(guān)重要的。對(duì)解決辦法的追求導(dǎo)致了各種方法的發(fā)展。我想要描述一些主要的方法,在過(guò)去的21目標(biāo)檢測(cè)已經(jīng)被使用,然后討論 Yolov3的實(shí)現(xiàn)。 討論方法 引言 雖然深度學(xué)習(xí)通常被

    2024年02月06日
    瀏覽(23)
  • 人工智能之配置環(huán)境教程二:在Anaconda中創(chuàng)建虛擬環(huán)境安裝GPU版本的Pytorch及torchvision并在VsCode中使用虛擬環(huán)境

    人工智能之配置環(huán)境教程二:在Anaconda中創(chuàng)建虛擬環(huán)境安裝GPU版本的Pytorch及torchvision并在VsCode中使用虛擬環(huán)境

    孟莉蘋,女,西安工程大學(xué)電子信息學(xué)院,2021級(jí)碩士研究生,張宏偉人工智能課題組。 研究方向:機(jī)器視覺(jué)與人工智能。 電子郵件:2425613875@qq.com 本教程提供需要安裝的CUDA11.3、Pytorch1.10.0、torchvision0.11.0的安裝包,在下述百度網(wǎng)盤鏈接中自??! 鏈接:https://pan.baidu.com/s/18m

    2024年02月02日
    瀏覽(33)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包