国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

YOLOv8/YOLOv7/YOLOv5系列改進| 目錄一覽表

這篇具有很好參考價值的文章主要介紹了YOLOv8/YOLOv7/YOLOv5系列改進| 目錄一覽表。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。



??魔改YOLO系列算法,助力漲點,助力科研。通過添加注意力機制SE/CBAM/CoordAtt/ECA /SimAM/CrissCrossAttention/ SKAttention/GAMAttention/S2-MLPv2/NAM等;網(wǎng)絡輕量化方法通過更換主干特征提取網(wǎng)絡為MobileNetV3/ShuffleNetV2/EfficientNetv2/Ghostnet/深度可分離卷積/PP-LCNet/mobileone/Ghostnetv2/ELAN等;優(yōu)化原yolo算法損失函數(shù)為EIoU/SIoU/Alpha-IoU/olyLoss / VarifocalLoss / GeneralizedFLoss / QualityFLoss / FL等,助力檢測漲點;優(yōu)化非極大值抑制算法為Soft-nms/DIoU NMS等;構建“Transformer+CNN”結構擬補原卷積網(wǎng)絡缺乏長距離建模能力,融入Bottleneck/EfficientFormer/Swin Transformer/Swin Transformer v2.0/Cotnet等,助力漲點;改進特征融合方式為BIFPN/ASFF等,強化不同尺度融合能力;改進激活函數(shù)為ACON/FReLU/ReLU/RReLU/Hardtanh/ReLU6/Sigmoid/Tanh/Mish/Hardswish/ELU/CELU/GLU/GELU/Hardshrink/LeakyReLU/LogSigmoid/Softplus/Softshrink/PReLU/Softmin等幾十種激活函數(shù);優(yōu)化錨框生成,改為K-Means++;空間金字塔池化改進SPP/SPPF/ASPP/SimSPPF/BasicRFB/SPPCSPC/SPPFCSPC等;其他還有添加小目標檢測層/ACMIX/CSPCM/SPD/C3HB/CB2D/ConvMix/DenseOneC/DenseOne/CReToNeXt/MVB/QARepVGG/RepVGGBlock/ConvNeXtV2/fasternet等等方法。詳情關注后私信留言咨詢


YOLO系列算法改進方法 | 目錄一覽表

??????1. 添加SE注意力機制
??????2.添加CBAM注意力機制
??????3. 添加CoordAtt注意力機制
??????4. 添加ECA通道注意力機制
??????5. 改進特征融合網(wǎng)絡PANET為BIFPN
??????6. 增加小目標檢測層
??????7. 損失函數(shù)改進
??????8. 非極大值抑制NMS算法改進Soft-nms
??????9. 錨框K-Means算法改進K-Means++
??????10. 損失函數(shù)改進為SIOU
??????11. 主干網(wǎng)絡C3替換為輕量化網(wǎng)絡MobileNetV3
??????12. 主干網(wǎng)絡C3替換為輕量化網(wǎng)絡ShuffleNetV2
??????13. 主干網(wǎng)絡C3替換為輕量化網(wǎng)絡EfficientNetv2
??????14. 主干網(wǎng)絡C3替換為輕量化網(wǎng)絡Ghostnet
??????15. 網(wǎng)絡輕量化方法深度可分離卷積
??????16. 主干網(wǎng)絡C3替換為輕量化網(wǎng)絡PP-LCNet
??????17. CNN+Transformer——融合Bottleneck Transformers
??????18. 損失函數(shù)改進為Alpha-IoU損失函數(shù)
??????19. 非極大值抑制NMS算法改進DIoU NMS
??????20. Involution新神經(jīng)網(wǎng)絡算子引入網(wǎng)絡
??????21. CNN+Transformer——主干網(wǎng)絡替換為又快又強的輕量化主干EfficientFormer
??????22. 漲點神器——引入遞歸門控卷積(gnConv)
??????23. 引入SimAM無參數(shù)注意力
??????24. 引入量子啟發(fā)的新型視覺主干模型WaveMLP(可嘗試發(fā)SCI)
??????25. 引入Swin Transformer
??????26. 改進特征融合網(wǎng)絡PANet為ASFF自適應特征融合網(wǎng)絡
??????27. 解決小目標問題——校正卷積取代特征提取網(wǎng)絡中的常規(guī)卷積
??????28. ICLR 2022漲點神器——即插即用的動態(tài)卷積ODConv
??????29. 引入Swin Transformer v2.0版本
??????30. 引入10月4號發(fā)表最新的Transformer視覺模型MOAT結構
??????31. CrissCrossAttention注意力機制
??????32. 引入SKAttention注意力機制
??????33. 引入GAMAttention注意力機制
??????34. 更換激活函數(shù)為FReLU
??????35. 引入S2-MLPv2注意力機制
??????36. 融入NAM注意力機制
??????37. 結合CVPR2022新作ConvNeXt網(wǎng)絡
??????38. 引入RepVGG模型結構
??????39. 引入改進遮擋檢測的Tri-Layer插件 | BMVC 2022
??????40. 輕量化mobileone主干網(wǎng)絡引入
??????41. 引入SPD-Conv處理低分辨率圖像和小對象問題
??????42. 引入V7中的ELAN網(wǎng)絡
??????43. 結合最新Non-local Networks and Attention結構
??????44. 融入適配GPU的輕量級 G-GhostNet
??????45. 首發(fā)最新特征融合技術RepGFPN(DAMO-YOLO)
??????46. 改進激活函數(shù)為ACON
??????47. 改進激活函數(shù)為GELU
??????48. 構建新的輕量網(wǎng)絡—Slim-neck by GSConv(2022CVPR)
??????49. 模型剪枝、蒸餾、壓縮
??????50. 超越ConvNeXt!Conv2Former:用于視覺識別的Transformer風格的ConvNet
??????51.融入多分支空洞卷積結構RFB-Bottleneck改進PANet構成新特征融合網(wǎng)絡
??????52.將YOLOv8中的C2f模塊融入YOLOv5
??????53.融入CFPNet網(wǎng)絡中的ECVBlock模塊,提升小目標檢測能力
??????54.改進激活函數(shù)為ReLU、RReLU、Hardtanh、ReLU6、Sigmoid、Tanh、Mish、Hardswish、ELU、CELU等
??????55.融入美團最新QARepVGG
??????56.引入Contextual Transformer模塊(sci期刊創(chuàng)新點之一)


一、注意力機制添加方法

一般解決問題為:圖像待測目標與背景相似,目標難以辨識的檢測難點
??????1. 添加SE注意力機制
??????2.添加CBAM注意力機制
??????3. 添加CoordAtt注意力機制
??????4. 添加ECA通道注意力機制
??????23. 引入SimAM無參數(shù)注意力
??????31. CrissCrossAttention注意力機制
??????32. 引入SKAttention注意力機制
??????33. 引入GAMAttention注意力機制
??????35. 引入S2-MLPv2注意力機制
??????36. 融入NAM注意力機制

二、網(wǎng)絡輕量化方法

一般解決問題為:輕量化網(wǎng)絡,適應應用部署
??????11. 主干網(wǎng)絡C3替換為輕量化網(wǎng)絡MobileNetV3
??????12. 主干網(wǎng)絡C3替換為輕量化網(wǎng)絡ShuffleNetV2
??????13. 主干網(wǎng)絡C3替換為輕量化網(wǎng)絡EfficientNetv2
??????14. 主干網(wǎng)絡C3替換為輕量化網(wǎng)絡Ghostnet
??????15. 網(wǎng)絡輕量化方法深度可分離卷積
??????16. 主干網(wǎng)絡C3替換為輕量化網(wǎng)絡PP-LCNet
??????40. 輕量化mobileone主干網(wǎng)絡引入
??????48. 構建新的輕量網(wǎng)絡—Slim-neck by GSConv(2022CVPR)
??????49. 模型剪枝、蒸餾、壓縮

三、優(yōu)化損失函數(shù)

一般解決問題為:原損失函數(shù)的缺陷不足
??????7. 損失函數(shù)改進
??????10. 損失函數(shù)改進為SIOU
??????18. 損失函數(shù)改進為Alpha-IoU損失函數(shù)
??????54.改進激活函數(shù)為ReLU、RReLU、Hardtanh、ReLU6、Sigmoid、Tanh、Mish、Hardswish、ELU、CELU等

四、非極大值抑制

一般解決問題為:同類別目標相互重疊導致錯漏檢問題
??????8. 非極大值抑制NMS算法改進Soft-nms
??????19. 非極大值抑制NMS算法改進DIoU NMS

五、“Transformer+CNN”結構

一般解決問題為:擬補全卷積網(wǎng)絡缺乏長距離建模能力
??????17. CNN+Transformer——融合Bottleneck Transformers
??????21. CNN+Transformer——主干網(wǎng)絡替換為又快又強的輕量化主干EfficientFormer
??????25. 引入Swin Transformer
??????29. 引入Swin Transformer v2.0版本
??????50. 超越ConvNeXt!Conv2Former:用于視覺識別的Transformer風格的ConvNet
??????56.引入Contextual Transformer模塊(sci期刊創(chuàng)新點之一)

六、特征融合方式改進

一般解決問題為:目標尺度變化多樣的問題
??????5. 改進特征融合網(wǎng)絡PANET為BIFPN
??????26. 改進特征融合網(wǎng)絡PANet為ASFF自適應特征融合網(wǎng)絡
??????51.融入多分支空洞卷積結構RFB-Bottleneck改進PANet構成新特征融合網(wǎng)絡

七、優(yōu)化錨框生成

一般解決問題為:原K-Means算法缺陷
??????9. 錨框K-Means算法改進K-Means++

八、激活函數(shù)改進

??????34. 更換激活函數(shù)為FReLU
??????46. 改進激活函數(shù)為ACON
??????54. 改進激活函數(shù)為ReLU、RReLU、Hardtanh、ReLU6、Sigmoid、Tanh、Mish、Hardswish、ELU、CELU等

九、空間金字塔池化層改進

??????SPP/SPPF/ASPP/SimSPPF/BasicRFB/SPPCSPC/SPPFCSPC (可私信獲取)文章來源地址http://www.zghlxwxcb.cn/news/detail-418992.html

到了這里,關于YOLOv8/YOLOv7/YOLOv5系列改進| 目錄一覽表的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包