介紹
摘要
本論文旨在開發(fā)現(xiàn)代、高效、輕量的密集預(yù)測模型,并在參數(shù)、浮點運算次數(shù)與性能之間尋求平衡。雖然倒置殘差塊(IRB)是輕量級卷積神經(jīng)網(wǎng)絡(luò)(CNN)的重要基礎(chǔ),但在基于注意力的研究中尚缺類似的構(gòu)件。本研究從統(tǒng)一視角出發(fā),結(jié)合高效IRB和有效的Transformer組件,重新考慮輕量級基礎(chǔ)架構(gòu)。我們將基于CNN的IRB擴展到基于注意力的模型,并提出了一種單殘差元移動塊(MMB)用于輕量級模型設(shè)計?;诤唵味行У脑O(shè)計原則,我們推出了一種新型的倒置殘差移動塊(iRMB),并以此為基礎(chǔ)構(gòu)建了一個類似于ResNet的高效模型(EMO),適用于下游任務(wù)。在ImageNet-1K、COCO2017和ADE20K基準上的大量實驗表明,我們的EMO在性能上超越了最先進的方法,例如,EMO-1M/2M/5M在Top-1準確率上分別達到了71.5、75.1和78.4,超過了同等級別的CNN-/基于注意力的模型,同時在參數(shù)、效率和準確度上取得了良好的權(quán)衡:在iPhone14上運行速度比EdgeNeXt快2.8-4.0倍。文章來源:http://www.zghlxwxcb.cn/news/detail-841097.html
創(chuàng)新點
iRMB (Inverted Residual Mobile Block) 的創(chuàng)新點在于其結(jié)合了CNN和Transformer架構(gòu)的優(yōu)點,為移動端應(yīng)用設(shè)計了一個簡單而高效的模塊。這一設(shè)計旨在解決移動設(shè)備上對存儲和計算資源限制下的高效模型需求,同時克服了現(xiàn)有輕量級CNN模型和T文章來源地址http://www.zghlxwxcb.cn/news/detail-841097.html
到了這里,關(guān)于【YOLOv8改進】iRMB: 倒置殘差移動塊 (論文筆記+引入代碼).md的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!