国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【OpenMMLab AI實(shí)戰(zhàn)營(yíng)第二期】目標(biāo)檢測(cè)與MMDetection

這篇具有很好參考價(jià)值的文章主要介紹了【OpenMMLab AI實(shí)戰(zhàn)營(yíng)第二期】目標(biāo)檢測(cè)與MMDetection。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

目標(biāo)檢測(cè)

目標(biāo)檢測(cè)的基本范式

  • 劃窗

  • 使用卷積實(shí)現(xiàn)密集預(yù)測(cè)

  • 錨框

  • 多尺度檢測(cè)與FPN

單階段&無(wú)錨框檢測(cè)器選講

  • RPN

  • YOLO、SSD

  • Focal Loss與RetinaNet

  • FCOS

  • YOLO系列選講

什么是目標(biāo)檢測(cè)

目標(biāo)檢測(cè):給定一張圖片,用矩形框框出所有感興趣物體同時(shí)預(yù)測(cè)物體類別

目標(biāo)檢測(cè)與圖像分類區(qū)別

圖像分類通常只有一個(gè)物體,位于圖像中央,占據(jù)主要面積,目標(biāo)檢測(cè)中這些都不固定

單階段目標(biāo)檢測(cè)算法

單階段檢測(cè)算法概述

單階段算法直接通過(guò)密集預(yù)測(cè)產(chǎn)生檢測(cè)框,相比于兩階段算法,模型結(jié)構(gòu)簡(jiǎn)單、速度快、易于在設(shè)備上部署

早期由于主干網(wǎng)絡(luò)、多尺度技術(shù)等相關(guān)技術(shù)不成熟,單階段算法在性能上不如兩階段算法,但因?yàn)樗俣群秃?jiǎn)潔的優(yōu)勢(shì)仍受到工業(yè)界青睞

隨著單階段算法性能逐漸提升,成為目標(biāo)檢測(cè)的主流算法

RPN(Region Proposal Network)

RPN 初步刪除圖像中包含物體的物質(zhì),不預(yù)測(cè)具體類別

RPN算“半個(gè)檢測(cè)器”,是二階算法 Faster RCNN的第一階段

RPN是基于密集預(yù)測(cè)的

YOLO(You Only Look Once)

是最早的單階段檢測(cè)器之一,激發(fā)了單階段算法的研究潮流

主干網(wǎng)絡(luò):自行設(shè)計(jì)的DarkNet結(jié)構(gòu),產(chǎn)生771024維的特征圖

檢測(cè)頭:2層全連接層產(chǎn)生77組預(yù)測(cè)結(jié)果,對(duì)應(yīng)77個(gè)空間位置上物體的類別和邊界

YOLO的匹配與框編碼

將原圖切分成SS大小的格子,對(duì)應(yīng)預(yù)測(cè)圖上SS個(gè)位置

如果原圖上某個(gè)物體中心位于某個(gè)格子內(nèi),則對(duì)應(yīng)位置的預(yù)測(cè)值應(yīng)給給出物體類別和邊界框位置

其余位置應(yīng)預(yù)測(cè)為背景類別,不關(guān)心邊界框預(yù)測(cè)結(jié)果

優(yōu)點(diǎn):

速度快:在Pascal VOC數(shù)據(jù)集上,使用自己設(shè)計(jì)的DarkNet結(jié)構(gòu)可以達(dá)到實(shí)時(shí)速度,使用相同的VGG可以達(dá)到3倍與Faster R-CNN的速度

缺點(diǎn):

由于每個(gè)格子只能預(yù)測(cè)一個(gè)物體,因此對(duì)重疊物體,尤其是大量重疊的小物體容易產(chǎn)生漏檢

直接回歸邊界框(無(wú)錨框)有難度,回歸誤差較大,YOLO V2開(kāi)始使用錨框

SSD(Single Shot MultiBox Detector)

主干網(wǎng)絡(luò):使用VGG+額外卷積層,產(chǎn)生11級(jí)特征圖

檢測(cè)頭:在6級(jí)特征圖上進(jìn)行密集預(yù)測(cè),產(chǎn)生所有位置,不同尺度的預(yù)測(cè)結(jié)果

RetinaNet

特征生成:ResNet主管網(wǎng)絡(luò)+FPN產(chǎn)生P3~P7共五級(jí)特征圖,對(duì)應(yīng)采樣率8-128倍

多尺度錨框:每個(gè)特征圖上設(shè)置3種尺寸*3種長(zhǎng)寬比的錨框,覆蓋82-813像素尺寸

密集預(yù)測(cè)頭:兩分支、5層卷積構(gòu)成的檢測(cè)頭,針對(duì)每個(gè)錨框產(chǎn)生K個(gè)二類預(yù)測(cè)以及4個(gè)邊界框偏移量

損失函數(shù):Focal Loss

性能
【OpenMMLab AI實(shí)戰(zhàn)營(yíng)第二期】目標(biāo)檢測(cè)與MMDetection

單階段算法面臨的正負(fù)樣本不均衡問(wèn)題

單階段算法共產(chǎn)生尺度數(shù)位置數(shù)錨框數(shù)個(gè)預(yù)測(cè)

而這些預(yù)測(cè)之中,只有少量錨框的真值為物體(正樣本),大部分錨框的真值為背景(負(fù)樣本)

使用類別不平衡的數(shù)據(jù)訓(xùn)練處的分類器傾向給出背景預(yù)測(cè),導(dǎo)致漏檢

樸素的分類損失不能驅(qū)動(dòng)檢測(cè)器在有限的能力下達(dá)到漏檢和錯(cuò)檢之間的平衡

YOLO V3

自定義的DarkNet-53主干網(wǎng)絡(luò)和類FPN結(jié)構(gòu),產(chǎn)生1/8、1/16、1/32降采樣率的3級(jí)特征圖

在每級(jí)特征圖上設(shè)置3個(gè)尺寸的錨框,錨框尺寸通過(guò)對(duì)真值狂聚類得到

兩層卷積構(gòu)成的密集檢測(cè)頭,在每個(gè)位置、針對(duì)每個(gè)錨框產(chǎn)生80個(gè)類別預(yù)測(cè)、4個(gè)邊界框偏移量、1個(gè)objectness預(yù)測(cè),每級(jí)特征圖3*(80+4+1)=255通道的預(yù)測(cè)值

得益于相對(duì)輕巧的主干網(wǎng)絡(luò)設(shè)計(jì)、YOLO V3的速度圓冠榆RetinaNet

YOLO V5

模型結(jié)構(gòu)進(jìn)一步改進(jìn)、使用CSPNarkNet主干網(wǎng)絡(luò)、PAFPN多尺度模塊

訓(xùn)練時(shí)使用更多數(shù)據(jù)增強(qiáng),如Mosaic、MixUP

使用自對(duì)抗訓(xùn)練技術(shù)(SAT)提高檢測(cè)器的魯棒性

無(wú)錨框目標(biāo)檢測(cè)算法

基于錨框

  • Faster R-CNN、YOLO V3/V5、RetinaNet都是基于錨框的檢測(cè)算法

  • 模型基于特征預(yù)測(cè)對(duì)應(yīng)位置中是否有物體,以及精確位置相對(duì)于錨框的偏移量

  • 實(shí)現(xiàn)復(fù)雜,需要手動(dòng)設(shè)置錨框相關(guān)超參數(shù)(如大小、長(zhǎng)寬比、數(shù)量等),設(shè)置不當(dāng)影響檢測(cè)精度

無(wú)錨框

  • 不依賴錨框,模型基于特征直接預(yù)測(cè)對(duì)應(yīng)位置是否有物體以及邊界框的位置
  • 邊界框預(yù)測(cè)完全基于模型學(xué)習(xí),不需要人工調(diào)整超參數(shù)

FOCS(Fully Convolutional One-Stage)

模型結(jié)構(gòu)與RetinaNet基本相同:主干網(wǎng)絡(luò)+FPN+兩分支、5層卷積構(gòu)成的密集預(yù)測(cè)頭

預(yù)測(cè)目標(biāo)不同:對(duì)于每個(gè)點(diǎn)位、預(yù)測(cè)類別、邊界框位置和中心度三組數(shù)值

FCOS的預(yù)測(cè)目標(biāo)&匹配規(guī)則

如果某個(gè)特征位于某個(gè)真值框的內(nèi)部,且特征的層級(jí)與真值框的尺度匹配,則該特征對(duì)應(yīng)正樣本,應(yīng)預(yù)測(cè)物體的

  • 類別概率

  • 邊界框相對(duì)于該中心位置的偏移量

  • 中心度,對(duì)于衡量預(yù)測(cè)框的優(yōu)劣

如果某個(gè)特征不位于真值框內(nèi)部,或與真值框尺度不匹配、對(duì)應(yīng)負(fù)樣本,只需預(yù)測(cè)類別為背景

對(duì)比:Anchor-Based算法基于IOU匹配,通常Anchor需要預(yù)測(cè)與之交并比大于閾值的框

FCOS的多尺度匹配

Anchor-based算法根據(jù)錨框和真值框的IoU為錨框匹配真值框通常,錨框會(huì)匹配到同尺度的真值框,小物體由底層特征預(yù)測(cè),大物體由高層特征圖預(yù)測(cè)

問(wèn)題:Anchor-free 算法沒(méi)有錨框,真值框如何匹配到不同尺度?

匹配方案:每層特征圖只負(fù)責(zé)預(yù)測(cè)特定大小的物體,例如右圖中512像素以上的物體匹配到P7上

由于重疊的物體尺度通常不同,同一位置重疊的真值框會(huì)被分配到不同的特征層,從而避免同一個(gè)位置需要預(yù)測(cè)兩個(gè)物體的情形

CenterNet

針對(duì)2D檢測(cè)的算法,將傳統(tǒng)檢測(cè)算法中的“以框表示物體”變成“以中心點(diǎn)表示物體”,將2D檢測(cè)建模為關(guān)鍵點(diǎn)檢測(cè)和額外的回歸任務(wù),一個(gè)框架可以同時(shí)覆蓋2D檢測(cè)、3D檢測(cè)、姿態(tài)估計(jì)等一系列任務(wù)。

YOLO X

以YOLO V3為基準(zhǔn)模型改進(jìn)的無(wú)錨框檢測(cè)器

  • Decouple Head結(jié)構(gòu)

  • 更多現(xiàn)代數(shù)據(jù)增強(qiáng)策略

  • SimOTA分配策略

  • 從小到大的一系列模型

SOTA的精度和速度文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-475322.html

到了這里,關(guān)于【OpenMMLab AI實(shí)戰(zhàn)營(yíng)第二期】目標(biāo)檢測(cè)與MMDetection的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【OpenMMLab】AI實(shí)戰(zhàn)營(yíng)第二期Day10:底層視覺(jué)與MMEditing

    【OpenMMLab】AI實(shí)戰(zhàn)營(yíng)第二期Day10:底層視覺(jué)與MMEditing

    本課程包含底層視覺(jué)和MMEditing兩個(gè)部分。第一部分介紹圖像超分、深度學(xué)習(xí)和網(wǎng)絡(luò)訓(xùn)練的相關(guān)算法,第二部分介紹超像素卷積、無(wú)監(jiān)督學(xué)習(xí)、卷積網(wǎng)絡(luò)和空間注意機(jī)制,以及這些算法在視覺(jué)框架中的實(shí)踐應(yīng)用。 ??介紹計(jì)算機(jī)視覺(jué)里面一個(gè)重要的問(wèn)題:圖像超分辨率以及相關(guān)

    2024年02月09日
    瀏覽(20)
  • OpenMMLab-AI實(shí)戰(zhàn)營(yíng)第二期——5-1.語(yǔ)義分割與MMSegmentation

    OpenMMLab-AI實(shí)戰(zhàn)營(yíng)第二期——5-1.語(yǔ)義分割與MMSegmentation

    視頻鏈接:語(yǔ)義分割與MMSegmentation 好的教程:超詳細(xì)!手把手帶你輕松用 MMSegmentation 跑語(yǔ)義分割數(shù)據(jù)集 以及:超詳細(xì)!帶你輕松掌握 MMSegmentation 整體構(gòu)建流程 案例代碼:https://github.com/TommyZihao/MMSegmentation_Tutorials 2.1.1 按顏色 最簡(jiǎn)單的思路:按照顏色聚類,基于同一物體顏色

    2024年02月09日
    瀏覽(26)
  • OpenMMLab-AI實(shí)戰(zhàn)營(yíng)第二期——6-2.玩轉(zhuǎn)AIGC神器MMagic

    OpenMMLab-AI實(shí)戰(zhàn)營(yíng)第二期——6-2.玩轉(zhuǎn)AIGC神器MMagic

    視頻鏈接:玩轉(zhuǎn)AIGC神器MMagic 代碼教程:https://github.com/TommyZihao/MMagic_Tutorials Stable Diffusion的文生圖,以及controlnet和dreamboost的圖生圖(輸入一個(gè)圖像+文字描述,輸出另一張圖像) 在2022年以前,這種技術(shù)是無(wú)法想象的,像magic一樣,所以這個(gè)庫(kù)就叫mmagic 1. Stable Diffusion和Midjour

    2024年02月10日
    瀏覽(28)
  • AI實(shí)戰(zhàn)營(yíng)第二期——第一次作業(yè):基于RTMPose的耳朵穴位關(guān)鍵點(diǎn)檢測(cè)

    AI實(shí)戰(zhàn)營(yíng)第二期——第一次作業(yè):基于RTMPose的耳朵穴位關(guān)鍵點(diǎn)檢測(cè)

    根據(jù)中醫(yī)的“倒置胎兒”學(xué)說(shuō),耳朵的穴位反映了人體全身臟器的健康,耳穴按摩可以緩解失眠多夢(mèng)、內(nèi)分泌失調(diào)等疾病。耳朵面積較小,但穴位密集,涉及耳舟、耳輪、三角窩、耳甲艇、對(duì)耳輪等三維輪廓,普通人難以精準(zhǔn)定位耳朵穴位。 Labelme標(biāo)注關(guān)鍵點(diǎn)檢測(cè)數(shù)據(jù)集(子

    2024年02月08日
    瀏覽(15)
  • MMPose(openmmlab AI實(shí)戰(zhàn)營(yíng)二期第一節(jié))

    MMPose(openmmlab AI實(shí)戰(zhàn)營(yíng)二期第一節(jié))

    鏈接:人體關(guān)鍵點(diǎn)檢測(cè)與MMPose_嗶哩嗶哩_bilibili 趕了個(gè)進(jìn)度,實(shí)際上沒(méi)聽(tīng)到,一個(gè)方向被濃縮成50分鐘是有點(diǎn)難度。后續(xù)有需要再回顧吧 人體姿態(tài)估計(jì):識(shí)別人體關(guān)鍵點(diǎn)坐標(biāo)。模式識(shí)別任務(wù),難點(diǎn)是始終在變化。以關(guān)鍵點(diǎn)連線,2/3D中還原人體姿態(tài)。PoseC3D:基于人體姿態(tài)識(shí)別行

    2024年02月07日
    瀏覽(20)
  • AI實(shí)戰(zhàn)營(yíng)第二期 第六節(jié) 《MMDetection代碼課》——筆記7

    AI實(shí)戰(zhàn)營(yíng)第二期 第六節(jié) 《MMDetection代碼課》——筆記7

    MMDetection 是被廣泛使用的檢測(cè)工具箱,包括了目標(biāo)檢側(cè)、實(shí)例分割、全景分割等多個(gè)通用檢測(cè)方向,并支持了 75+ 個(gè)主流和前沿模型, 為用戶提供超過(guò) 440+ 個(gè)預(yù)訓(xùn)練模型, 在學(xué)術(shù)研究和工業(yè)落地中擁有廣泛應(yīng)用。該恇架的主要特點(diǎn)為: 模塊化設(shè)計(jì)。MMDetection 將檢測(cè)框架解耦成不

    2024年02月08日
    瀏覽(25)
  • AI實(shí)戰(zhàn)營(yíng)第二期 第十節(jié) 《MMagic 代碼課》——筆記11

    AI實(shí)戰(zhàn)營(yíng)第二期 第十節(jié) 《MMagic 代碼課》——筆記11

    MMagic (Multimodal Advanced, Generative, and Intelligent Creation) 是一個(gè)供專業(yè)人工智能研究人員和機(jī)器學(xué)習(xí)工程師去處理、編輯和生成圖像與視頻的開(kāi)源 AIGC 工具箱。 MMagic 允許研究人員和工程師使用最先進(jìn)的預(yù)訓(xùn)練模型,并且可以輕松訓(xùn)練和開(kāi)發(fā)新的定制模型。 MMagic 支持各種基礎(chǔ)生成

    2024年02月14日
    瀏覽(18)
  • AI實(shí)戰(zhàn)營(yíng)第二期 第九節(jié) 《底層視覺(jué)與MMEditing》——筆記10

    AI實(shí)戰(zhàn)營(yíng)第二期 第九節(jié) 《底層視覺(jué)與MMEditing》——筆記10

    本節(jié)內(nèi)容 : 圖像超分辨率 Super Resolution 基于卷積網(wǎng)絡(luò)的模型 SRCNN 與 FSRCNN 損失函數(shù) 對(duì)抗生成網(wǎng)絡(luò) GAN 簡(jiǎn)介 基于 GAN 的模型 SRGAN 與 ESRGAN 視頻超分辨率介紹 實(shí)踐 MMEditing 1 圖像超分辨率 : 根據(jù)從低分辨率圖像重構(gòu)高分辨率圖像 。 將圖像放大,變清晰 提高圖像的分辨率 高分圖像

    2024年02月09日
    瀏覽(50)
  • AI實(shí)戰(zhàn)營(yíng)第二期 第七節(jié) 《語(yǔ)義分割與MMSegmentation》——筆記8

    AI實(shí)戰(zhàn)營(yíng)第二期 第七節(jié) 《語(yǔ)義分割與MMSegmentation》——筆記8

    MMSegmentation 是一個(gè)基于 PyTorch 的語(yǔ)義分割開(kāi)源工具箱。它是 OpenMMLab 項(xiàng)目的一部分。 main 分支代碼目前支持 PyTorch 1.6 以上的版本。 代碼鏈接:https://gitee.com/open-mmlab/mmsegmentation 統(tǒng)一的基準(zhǔn)平臺(tái)。我們將各種各樣的語(yǔ)義分割算法集成到了一個(gè)統(tǒng)一的工具箱,進(jìn)行基準(zhǔn)測(cè)試。 模塊

    2024年02月08日
    瀏覽(21)
  • 【OpenMMLab AI實(shí)戰(zhàn)營(yíng)二期筆記】第十一天 玩轉(zhuǎn)AIGC神器MMagic代碼教程

    1.1 安裝Pytorch 1.2 安裝MMCV、MMEngine環(huán)境 1.3 安裝MMagic 方式一: 方式二:源碼安裝 1.4檢查安裝成功 1.5 安裝其他工具包 2.1 進(jìn)入 MMagic 主目錄 2.2下載樣例圖片 2.3 運(yùn)行預(yù)測(cè) 3.1 導(dǎo)入工具包 3.2 載入模型 3.3 指定Prompt文本 3.4 預(yù)測(cè) 4.1 進(jìn)入 MMagic 主目錄 4.2 在數(shù)據(jù)集上訓(xùn)練Dreambooth 4.3 用

    2024年02月10日
    瀏覽(52)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包