国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【目標(biāo)檢測】YOLOv5-7.0:加入實例分割

這篇具有很好參考價值的文章主要介紹了【目標(biāo)檢測】YOLOv5-7.0:加入實例分割。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

前言

前段時間,YOLOv5推出7.0版本,主要更新點是在目標(biāo)檢測的同時引入了實例分割。
目前,YOLOv5團隊已經(jīng)轉(zhuǎn)向了YOLOv8的更新,因此,7.0版本大概率是YOLOv5的最終穩(wěn)定版。

更新信息

官方公告中給出了YOLOv5-7.0的更新要點:

  • 推出了基于coco-seg的實例分割預(yù)訓(xùn)練模型
  • 支持Paddle Paddle模型導(dǎo)出
  • 自動緩存機制:使用python train.py --cache ram可以自動掃描可用內(nèi)存,并且為數(shù)據(jù)集的加載進行分配
  • 加入Comet日志記錄和可視化集成

實例分割實踐

下載代碼

git clone https://github.com/ultralytics/yolov5.git -b v7.0

下載預(yù)訓(xùn)練模型

官方倉庫有不同模型大小的預(yù)訓(xùn)練模型,這里以yolov5m-seg為例。
下載鏈接:https://github.com/ultralytics/yolov5/releases/download/v7.0/yolov5m-seg.pt

下載數(shù)據(jù)集

這里以教程文檔中的coco128-seg.zip數(shù)據(jù)集為例。
下載鏈接:https://ultralytics.com/assets/coco128-seg.zip

數(shù)據(jù)集的文件結(jié)構(gòu)如下:

  • coco128-seg
    • images
      • train2017
    • labels
      • train2017

數(shù)據(jù)集標(biāo)簽可視化

coco-seg數(shù)據(jù)集和coco數(shù)據(jù)集圖片一樣,唯一區(qū)別是標(biāo)簽不同。

coco-seg的標(biāo)簽示例如下:

45 0.557859 0.143813 0.487078 0.0314583 0.859547 0.00897917 0.985953 0.130333 0.984266 0.184271 0.930344 0.386521 0.80225 0.480896 0.763484 0.485396 0.684266 0.39775 0.670781 0.3955 0.679219 0.310104 0.642141 0.253937 0.561234 0.155063 0.559547 0.137083
50 0.39 0.727063 0.418234 0.649417 0.455297 0.614125 0.476469 0.614125 0.51 0.590583 0.54 0.569417 0.575297 0.562354 0.601766 0.56 0.607062 0.536479 0.614125 0.522354 0.637063 0.501167 0.665297 0.48 0.69 0.477646 0.698828 0.494125 0.698828 0.534125 0.712938 0.529417 0.742938 0.548229 0.760594 0.564708 0.774703 0.550583 0.778234 0.536479 0.781766 0.531771 0.792359 0.541167 0.802937 0.555292 0.802937 0.569417 0.802937 0.576479 0.822359 0.576479 0.822359 0.597646 0.811766 0.607062 0.811766 0.618833 0.818828 0.637646 0.820594 0.656479 0.827641 0.687063 0.827641 0.703521 0.829406 0.727063 0.838234 0.708229 0.852359 0.729417 0.868234 0.750583 0.871766 0.792938 0.877063 0.821167 0.884125 0.861167 0.817062 0.92 0.734125 0.976479 0.711172 0.988229 0.48 0.988229 0.494125 0.967063 0.517062 0.912937 0.508234 0.832937 0.485297 0.788229 0.471172 0.774125 0.395297 0.729417

其中第一個為類別標(biāo)簽,后面的兩個為一組,即(x1,y1),(x2,y2)…意為一個個點,這些點連線即為所框選的實例。

下面的代碼[2]實現(xiàn)了將標(biāo)簽進行可視化:

import cv2
import numpy as np


if __name__ == '__main__':
    pic_path = r"coco128-seg\images\train2017\000000000009.jpg"
    txt_path = r"coco128-seg\labels\train2017\000000000009.txt"
    img = cv2.imread(pic_path)
    height, width, _ = img.shape
    file_handle = open(txt_path)
    cnt_info = file_handle.readlines()
    new_cnt_info = [line_str.replace("\n", "").split(" ") for line_str in cnt_info]
    # 45 bowl 碗 49 橘子 50 西蘭花
    color_map = {"49": (0, 255, 255), "45": (255, 0, 255), "50": (255, 255, 0)}
    for new_info in new_cnt_info:
        s = []
        for i in range(1, len(new_info), 2):
            b = [float(tmp) for tmp in new_info[i:i + 2]]
            s.append([int(b[0] * width), int(b[1] * height)])
        cv2.polylines(img, [np.array(s, np.int32)], True, color_map.get(new_info[0]))
    cv2.imshow('img', img)
    cv2.waitKey()

yolov5圖像分割,目標(biāo)檢測,目標(biāo)檢測,YOLO,計算機視覺

模型檢測

下載好預(yù)訓(xùn)練模型,可以直接用其進行檢測:

python segment/predict.py --weights yolov5m-seg.pt --data data/images/bus.jpg

檢測結(jié)果存放在runs/predict-seg文件夾中。

yolov5圖像分割,目標(biāo)檢測,目標(biāo)檢測,YOLO,計算機視覺

模型訓(xùn)練

下面以coco128-seg數(shù)據(jù)集訓(xùn)練為例,首先修改data/coco128-seg.yaml配置文件,修改相應(yīng)路徑:

path: coco128-seg  
train: images/train2017
val: images/train2017

之后終端運行:

python segment/train.py --weights  yolov5m-seg.pt --data data/coco128-seg.yaml --epochs 5 --img 640 --project train-seg --batch-size 4

注:

  • –project設(shè)定了訓(xùn)練結(jié)果的保存路徑,按照默認(rèn)路徑runs\train-seg會引發(fā)wandb的報錯:wandb.errors.UsageError: Invalid project name "runs\train-seg": cannot contain characters "/,\,#,?,%,:", found "\"
  • 默認(rèn)batch-size為16,普通單機有爆顯存風(fēng)險,因此調(diào)小。

最終模型依然會保存最佳和最后兩個模型,以及一些驗證結(jié)果圖片,和之前版本相似。

參考

[1] YOLOv5官方倉庫:https://github.com/ultralytics/yolov5/tree/v7.0
[2] 【深度學(xué)習(xí)】yolov5 tag7.0 實例分割 從0到1的體會,從模型訓(xùn)練,到量化完成 https://betheme.net/xiaochengxu/38021.html文章來源地址http://www.zghlxwxcb.cn/news/detail-676121.html

到了這里,關(guān)于【目標(biāo)檢測】YOLOv5-7.0:加入實例分割的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • YOLOv5+BiSeNet——同時進行目標(biāo)檢測和語義分割

    YOLOv5+BiSeNet——同時進行目標(biāo)檢測和語義分割

    在Gayhub上看到個項目,有人在YOLOv5的基礎(chǔ)上,新增了一個分割頭,把BiSeNet語義分割算法加入到了目標(biāo)檢測中,使其能夠同時進行目標(biāo)檢測和語義分割。 項目地址:https://github.com/TomMao23/multiyolov5 先看我使用原作者提供的模型,復(fù)刻出來的效果: (本來想放視頻的,不過傳了兩

    2024年02月07日
    瀏覽(20)
  • 漲點神器:Yolov5 加入ODConv+ConvNeXt提升小目標(biāo)檢測能力,適用yolo各個系列

    漲點神器:Yolov5 加入ODConv+ConvNeXt提升小目標(biāo)檢測能力,適用yolo各個系列

    論文:Omni-Dimensional Dynamic Convolution 論文地址:Omni-Dimensional Dynamic Convolution | OpenReview ODConv通過并行策略引入一種多維注意力機制以對卷積核空間的四個維度學(xué)習(xí)更靈活的注意力。上圖給出CondConv、DyConv以及ODConv的差異圖。延續(xù)動態(tài)卷積的定義,ODConv可以描述成如下形式:其中

    2024年02月04日
    瀏覽(25)
  • YOLOv5改進 | Neck篇 | 利用ASF-YOLO改進特征融合層(適用于分割和目標(biāo)檢測)

    本文給大家?guī)淼母倪M機制是 ASF-YOLO(發(fā)布于2023.12月份的最新機制) ,其是特別設(shè)計用于細(xì)胞實例分割。這個模型通過結(jié)合空間和尺度特征,提高了在處理細(xì)胞圖像時的準(zhǔn)確性和速度。在實驗中, ASF-YOLO在2018年數(shù)據(jù)科學(xué)競賽 數(shù)據(jù)集上取得了卓越的分割準(zhǔn)確性和速度,達(dá)到了

    2024年01月15日
    瀏覽(17)
  • 目標(biāo)檢測算法之YOLOv5在乒乓球賽事中運動員行為分析領(lǐng)域的應(yīng)用實例詳解(基礎(chǔ)版--上)

    目錄 YOLOv5乒乓球賽事中運動員行為分析 優(yōu)化措施 優(yōu)化代碼 繼續(xù)優(yōu)化 在乒乓球賽事中,YOLOv5可以應(yīng)用于運動員行為分析,通過實時識別和追蹤運動員的動作,幫助教練分析技術(shù)動作,或者為觀眾提供更豐富的觀賽體驗。下面是一個簡單的應(yīng)用實例和相關(guān)代碼片段。 首先,需

    2024年02月22日
    瀏覽(112)
  • YOLOv5 實例分割入門

    YOLOv5 實例分割入門

    YOLOv5 目標(biāo)檢測模型以其出色的性能和優(yōu)化的推理速度而聞名。因此, YOLOv5 實例分割 模型已成為實時實例分割中最快、最準(zhǔn)確的模型之一。? 在這篇文章中,我們將回答以下關(guān)于 YOLOv5 實例分割的問題: YOLOv5檢測模型做了哪些改動,得到了YOLOv5實例分割架構(gòu)? 使用的 ProtoN

    2024年02月05日
    瀏覽(16)
  • 目標(biāo)檢測算法之YOLOv5的應(yīng)用實例(零售業(yè)庫存管理、無人機航拍分析、工業(yè)自動化領(lǐng)域應(yīng)用的詳解)

    在零售業(yè)庫存管理中,YOLOv5可以幫助自動化商品識別和庫存盤點過程。通過使用深度學(xué)習(xí)模型來實時識別貨架上的商品,零售商可以更高效地管理庫存,減少人工盤點的時間和成本。以下是一個使用YOLOv5進行商品識別的Python腳本示例:

    2024年02月20日
    瀏覽(23)
  • YOLOv5實現(xiàn)目標(biāo)檢測

    YOLOv5實現(xiàn)目標(biāo)檢測

    YOLOv5 ?? 是COCO數(shù)據(jù)集上預(yù)處理的一系列對象檢測架構(gòu)和模型,代表Ultralytics對未來視覺人工智能方法的開源研究,融合了數(shù)千小時研究和開發(fā)過程中積累的經(jīng)驗教訓(xùn)和最佳實踐。 本文用來記錄第一次使用 YOLOv5實現(xiàn): 視頻目標(biāo)檢測 攝像頭目標(biāo)檢測 博主所使用的環(huán)境是win10 +

    2024年02月09日
    瀏覽(24)
  • YOLOv5目標(biāo)檢測實驗

    最近在用YOLOv5跑一些目標(biāo)檢測的東西,這是自己日常學(xué)習(xí)的一些總結(jié)!后期會繼續(xù)更新!有問題也歡迎批評指正!如果雷同請見諒! 創(chuàng)建數(shù)據(jù)集是在detect.py里面的create_dataloader,并在主函數(shù)里面調(diào)用 yolov5在計算資源的調(diào)用上采用了torch.nn.parallel.DistributedDataParallel(DDP,多張顯卡

    2024年02月07日
    瀏覽(31)
  • YOLOv5 實例分割 用 OPenCV DNN C++ 部署

    YOLOv5 實例分割 用 OPenCV DNN C++ 部署

    如果之前從沒接觸過實例分割,建議先了解一下實例分割的輸出是什么。 實例分割兩個關(guān)鍵輸出是:mask系數(shù)、mask原型 本文參考自該項目(這么優(yōu)秀的代碼當(dāng)然要給star!):GitHub - UNeedCryDear/yolov5-seg-opencv-onnxruntime-cpp: yolov5 segmentation with onnxruntime and opencv 目錄 Pre: 一、代碼總結(jié)

    2024年02月12日
    瀏覽(26)
  • 【目標(biāo)檢測】yolov5模型詳解

    【目標(biāo)檢測】yolov5模型詳解

    yolov5于2020年由glenn-jocher首次提出,直至今日yolov5仍然在不斷進行升級迭代。 Yolov5有YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x四個版本。文件中,這幾個模型的結(jié)構(gòu)基本一樣,不同的是depth_multiple模型深度和width_multiple模型寬度這兩個參數(shù)。 yolov5主要分為以下幾部分: Input:輸入 Backbone:

    2024年02月07日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包