我們提出了一種簡(jiǎn)單但功能強(qiáng)大的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),該模型在推理時(shí)類似于VGG,只有3×3的卷積和ReLU堆疊而成,而訓(xùn)練時(shí)間模型具有多分支拓?fù)浣Y(jié)構(gòu)。訓(xùn)練時(shí)間和推理時(shí)間結(jié)構(gòu)的這種解耦是通過結(jié)構(gòu)重新參數(shù)化技術(shù)實(shí)現(xiàn)的,因此該模型被命名為RepVGG。在ImageNet上,RepVGG達(dá)到了超過80%的TOP-1準(zhǔn)確率,據(jù)我們所知,這是第一次使用普通模型。在NVIDIA 1080Ti GPU上,RepVGG型號(hào)的運(yùn)行速度比ResNet-50快83%,比ResNet-101快101%,精度更高,并且與EfficientNet和RegNet等最先進(jìn)的型號(hào)相比,顯示出良好的精度和速度折衷。
論文地址:https://arxiv.org/abs/2101.03697
代碼地址:https://github.com/megvii-model/RepVGG文章來源:http://www.zghlxwxcb.cn/news/detail-426589.html
原理解析
經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)(ConvNet) VGG通過一個(gè)由conv
、ReLU
和pooling
組成的簡(jiǎn)單體系結(jié)構(gòu)在圖像識(shí)別方面取得了巨大成功。隨著Inception、ResNet和DenseNet的出現(xiàn),大量的研究興趣轉(zhuǎn)移到了精心設(shè)計(jì)的架構(gòu)上,使得模型越來越復(fù)雜 ,一些最近的架構(gòu)是基于自動(dòng)或手動(dòng)文章來源地址http://www.zghlxwxcb.cn/news/detail-426589.html
到了這里,關(guān)于改進(jìn)YOLOv8 | 即插即用篇 | YOLOv8 引入 RepVGG 重參數(shù)化模塊 |《RepVGG:讓VGG風(fēng)格的卷積神經(jīng)網(wǎng)絡(luò)再次偉大》的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!