国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

yolov7改進(jìn)系列 1. YOLOv7改進(jìn)結(jié)構(gòu)系列: 最新結(jié)合用于小目標(biāo)的新CNN卷積構(gòu)建

這篇具有很好參考價(jià)值的文章主要介紹了yolov7改進(jìn)系列 1. YOLOv7改進(jìn)結(jié)構(gòu)系列: 最新結(jié)合用于小目標(biāo)的新CNN卷積構(gòu)建。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

1. YOLOv7改進(jìn)結(jié)構(gòu)系列: 最新結(jié)合用于小目標(biāo)的新CNN卷積構(gòu)建

(71條消息) YOLOv7改進(jìn)結(jié)構(gòu)系列: 最新結(jié)合用于小目標(biāo)的新CNN卷積構(gòu)建塊_芒果汁沒有芒果的博客-CSDN博客

一、SPD論文理論部分
卷積神經(jīng)網(wǎng)絡(luò) (CNN) 在許多計(jì)算機(jī)視覺任務(wù)(例如圖像分類和對象檢測)中取得了巨大成功。然而,它們的性能在圖像分辨率低或物體很小的更艱巨的任務(wù)中迅速下降。在本文中,我們指出,這源于現(xiàn)有 CNN 架構(gòu)中存在缺陷但常見的設(shè)計(jì),即使用跨步卷積和/或池化層,這會(huì)導(dǎo)致細(xì)粒度信息的丟失和對不太有效的特征表示的學(xué)習(xí). 為此,我們提出了一個(gè)名為SPD-Conv的新 CNN 構(gòu)建塊來代替每個(gè)跨步卷積層和每個(gè)池化層(因此完全消除了它們)。SPD-Conv 由空間到深度(SPD) 層后跟非跨步卷積 (Conv) 層,可以應(yīng)用于大多數(shù)(如果不是全部)CNN 架構(gòu)。我們在兩個(gè)最具代表性的計(jì)算機(jī)視覺任務(wù)下解釋了這種新設(shè)計(jì):對象檢測和圖像分類。然后,我們通過將 SPD-Conv 應(yīng)用于 YOLOv5 和 ResNet 來創(chuàng)建新的 CNN 架構(gòu),并通過經(jīng)驗(yàn)證明我們的方法明顯優(yōu)于最先進(jìn)的深度學(xué)習(xí)模型,尤其是在具有低分辨率圖像和小物體的更艱巨任務(wù)上。

yolov7改進(jìn)系列
1. YOLOv7改進(jìn)結(jié)構(gòu)系列: 最新結(jié)合用于小目標(biāo)的新CNN卷積構(gòu)建

?文章來源地址http://www.zghlxwxcb.cn/news/detail-413159.html

yolov7改進(jìn)系列
1. YOLOv7改進(jìn)結(jié)構(gòu)系列: 最新結(jié)合用于小目標(biāo)的新CNN卷積構(gòu)建?

??YOLOv7改進(jìn)RepFPN結(jié)構(gòu)|最新結(jié)合:2023年最新論文設(shè)計(jì)高效 RepFPN 結(jié)構(gòu),具有硬件感知神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的高效 Repvgg 式 ConvNet 網(wǎng)絡(luò)結(jié)構(gòu) ,該網(wǎng)絡(luò)結(jié)構(gòu)表現(xiàn)強(qiáng)勢

EfficientRep An Efficient Repvgg-style ConvNets with Hardware-aware Neural Network Design?

(71條消息) EfficientRep An Efficient Repvgg-style ConvNets with Hardware-aware Neural Network Design_小夢人心的博客-CSDN博客?

yolov7改進(jìn)系列
1. YOLOv7改進(jìn)結(jié)構(gòu)系列: 最新結(jié)合用于小目標(biāo)的新CNN卷積構(gòu)建

?

目標(biāo)檢測模型設(shè)計(jì)準(zhǔn)則 | YOLOv7參考的ELAN模型解讀,YOLO系列模型思想的設(shè)計(jì)源頭

(71條消息) 目標(biāo)檢測模型設(shè)計(jì)準(zhǔn)則 | YOLOv7參考的ELAN模型解讀,YOLO系列模型思想的設(shè)計(jì)源頭_人工智能算法研究院的博客-CSDN博客

?

=================================================================

yolov5改進(jìn)spd-conv?

yaml文件

# Parameters
nc: 80  # number of classes
depth_multiple: 0.33  # model depth multiple
width_multiple: 0.50  # layer channel multiple
anchors:
  - [10,13, 16,30, 33,23]  # P3/8
  - [30,61, 62,45, 59,119]  # P4/16
  - [116,90, 156,198, 373,326]  # P5/32

# YOLOv5 v6.0 backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Focus, [64, 3]],     # 0-P1/2
   [-1, 1, Conv, [128, 3, 1]],  # 1
   [-1,1,space_to_depth,[1]],   # 2 -P2/4
   [-1, 3, C3, [128]],          # 3
   [-1, 1, Conv, [256, 3, 1]],  # 4
   [-1,1,space_to_depth,[1]],   # 5 -P3/8
   [-1, 6, C3, [256]],          # 6
   [-1, 1, Conv, [512, 3, 1]],  # 7-P4/16
   [-1,1,space_to_depth,[1]],   # 8 -P4/16
   [-1, 9, C3, [512]],          # 9
   [-1, 1, Conv, [1024, 3, 1]], # 10-P5/32
   [-1,1,space_to_depth,[1]],   # 11 -P5/32
   [-1, 3, C3, [1024]],         # 12
   [-1, 1, SPPF, [1024, 5]],    # 13
  ]

# YOLOv5 v6.0 head
head:
  [[-1, 1, Conv, [512, 1, 1]],                    # 14
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],    # 15
   [[-1, 9], 1, Concat, [1]],                     # 16 cat backbone P4
   [-1, 3, C3, [512, False]],                     # 17

   [-1, 1, Conv, [256, 1, 1]],                    # 18
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],    # 19
   [[-1, 6], 1, Concat, [1]],                     # 20 cat backbone P3
   [-1, 3, C3, [256, False]],                     # 21 (P3/8-small)

   [-1, 1, Conv, [256, 3, 1]],                    # 22
   [-1,1,space_to_depth,[1]],                     # 23 -P2/4
   [[-1, 18], 1, Concat, [1]],                    # 24 cat head P4
   [-1, 3, C3, [512, False]],                     # 25 (P4/16-medium)

   [-1, 1, Conv, [512, 3, 1]],                    # 26
   [-1,1,space_to_depth,[1]],                     # 27 -P2/4
   [[-1, 14], 1, Concat, [1]],                    # 28 cat head P5
   [-1, 3, C3, [1024, False]],                    # 29 (P5/32-large)

   [[21, 25, 29], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  ]

commen.py

class space_to_depth(nn.Module):
    # Changing the dimension of the Tensor
    def __init__(self, dimension=1):
        super().__init__()
        self.d = dimension

    def forward(self, x):
         return torch.cat([x[..., ::2, ::2], x[..., 1::2, ::2], x[..., ::2, 1::2], x[..., 1::2, 1::2]], 1)

yolo.py

yolov7改進(jìn)系列
1. YOLOv7改進(jìn)結(jié)構(gòu)系列: 最新結(jié)合用于小目標(biāo)的新CNN卷積構(gòu)建

?

?

到了這里,關(guān)于yolov7改進(jìn)系列 1. YOLOv7改進(jìn)結(jié)構(gòu)系列: 最新結(jié)合用于小目標(biāo)的新CNN卷積構(gòu)建的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包