介紹
摘要
卷積神經(jīng)網(wǎng)絡(luò)(CNNs)在許多計(jì)算機(jī)視覺(jué)任務(wù)中取得了巨大成功,例如圖像分類和目標(biāo)檢測(cè)。然而,當(dāng)面對(duì)圖像分辨率低或?qū)ο筝^小的更加困難的任務(wù)時(shí),它們的性能迅速下降。在本文中,我們指出這一問(wèn)題根源于現(xiàn)有CNN架構(gòu)中一個(gè)有缺陷但常見(jiàn)的設(shè)計(jì),即使用了步長(zhǎng)卷積和/或池化層,這導(dǎo)致了細(xì)粒度信息的丟失和較不有效的特征表示的學(xué)習(xí)。為此,我們提出了一種新的CNN構(gòu)建塊,名為SPD-Conv,用以替代每個(gè)步長(zhǎng)卷積層和每個(gè)池化層(從而完全消除它們)。SPD-Conv由一個(gè)空間到深度(SPD)層和一個(gè)非步長(zhǎng)卷積(Conv)層組成,并且可以應(yīng)用于大多數(shù)(如果不是全部的話)CNN架構(gòu)中。我們?cè)趦蓚€(gè)最具代表性的計(jì)算機(jī)視覺(jué)任務(wù)下解釋這一新設(shè)計(jì):目標(biāo)檢測(cè)和圖像分類。然后,我們通過(guò)將SPD-Conv應(yīng)用于YOLOv5和ResNet來(lái)創(chuàng)建新的CNN架構(gòu),并通過(guò)實(shí)驗(yàn)證明我們的方法特別是在圖像分辨率低和小對(duì)象的困難任務(wù)上顯著優(yōu)于最先進(jìn)的深度學(xué)習(xí)模型。我們已經(jīng)在開(kāi)放源代碼。
創(chuàng)新點(diǎn)
SPD-Conv的創(chuàng)新點(diǎn)在于其獨(dú)特的設(shè)計(jì)理念和結(jié)構(gòu),它旨在解決當(dāng)處理低分辨率圖像或小物體時(shí),傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)(CNN)性能下降的問(wèn)題。以下是SPD-Conv的主要?jiǎng)?chuàng)新點(diǎn):文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-851158.html
-
完全消除卷積步長(zhǎng)和池化層:傳統(tǒng)CNN中,卷積步長(zhǎng)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-851158.html
到了這里,關(guān)于【YOLOv8改進(jìn)】 SPD-Conv空間深度轉(zhuǎn)換卷積,處理低分辨率圖像和小對(duì)象問(wèn)題 (論文筆記+引入代碼)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!