国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

(超詳細)4-YOLOV5改進-添加ShuffleAttention注意力機制

這篇具有很好參考價值的文章主要介紹了(超詳細)4-YOLOV5改進-添加ShuffleAttention注意力機制。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1、在yolov5/models下面新建一個ShuffleAttention.py文件,在里面放入下面的代碼
yolov shuffle attention,yolov5改進,YOLO,深度學習,人工智能
yolov shuffle attention,yolov5改進,YOLO,深度學習,人工智能

代碼如下:

import numpy as np
import torch
from torch import nn
from torch.nn import init
from torch.nn.parameter import Parameter


class ShuffleAttention(nn.Module):

    def __init__(self, channel=512, reduction=16, G=8):
        super().__init__()
        self.G = G
        self.channel = channel
        self.avg_pool = nn.AdaptiveAvgPool2d(1)
        self.gn = nn.GroupNorm(channel // (2 * G), channel // (2 * G))
        self.cweight = Parameter(torch.zeros(1, channel // (2 * G), 1, 1))
        self.cbias = Parameter(torch.ones(1, channel // (2 * G), 1, 1))
        self.sweight = Parameter(torch.zeros(1, channel // (2 * G), 1, 1))
        self.sbias = Parameter(torch.ones(1, channel // (2 * G), 1, 1))
        self.sigmoid = nn.Sigmoid()

    def init_weights(self):
        for m in self.modules():
            if isinstance(m, nn.Conv2d):
                init.kaiming_normal_(m.weight, mode='fan_out')
                if m.bias is not None:
                    init.constant_(m.bias, 0)
            elif isinstance(m, nn.BatchNorm2d):
                init.constant_(m.weight, 1)
                init.constant_(m.bias, 0)
            elif isinstance(m, nn.Linear):
                init.normal_(m.weight, std=0.001)
                if m.bias is not None:
                    init.constant_(m.bias, 0)

    @staticmethod
    def channel_shuffle(x, groups):
        b, c, h, w = x.shape
        x = x.reshape(b, groups, -1, h, w)
        x = x.permute(0, 2, 1, 3, 4)

        # flatten
        x = x.reshape(b, -1, h, w)

        return x

    def forward(self, x):
        b, c, h, w = x.size()
        # group into subfeatures
        x = x.view(b * self.G, -1, h, w)  # bs*G,c//G,h,w

        # channel_split
        x_0, x_1 = x.chunk(2, dim=1)  # bs*G,c//(2*G),h,w

        # channel attention
        x_channel = self.avg_pool(x_0)  # bs*G,c//(2*G),1,1
        x_channel = self.cweight * x_channel + self.cbias  # bs*G,c//(2*G),1,1
        x_channel = x_0 * self.sigmoid(x_channel)

        # spatial attention
        x_spatial = self.gn(x_1)  # bs*G,c//(2*G),h,w
        x_spatial = self.sweight * x_spatial + self.sbias  # bs*G,c//(2*G),h,w
        x_spatial = x_1 * self.sigmoid(x_spatial)  # bs*G,c//(2*G),h,w

        # concatenate along channel axis
        out = torch.cat([x_channel, x_spatial], dim=1)  # bs*G,c//G,h,w
        out = out.contiguous().view(b, -1, h, w)

        # channel shuffle
        out = self.channel_shuffle(out, 2)
        return out

2、找到y(tǒng)olo.py文件,進行更改內(nèi)容
在28行加一個from models.ShuffleAttention import ShuffleAttention, 保存即可
yolov shuffle attention,yolov5改進,YOLO,深度學習,人工智能

3、找到自己想要更改的yaml文件,我選擇的yolov5s.yaml文件(你可以根據(jù)自己需求進行選擇),將剛剛寫好的模塊ShuffleAttention加入到y(tǒng)olov5s.yaml里面,并更改一些內(nèi)容。更改如下
yolov shuffle attention,yolov5改進,YOLO,深度學習,人工智能

4、在yolo.py里面加入兩行代碼(335-337)
保存即可!
yolov shuffle attention,yolov5改進,YOLO,深度學習,人工智能

運行一下,發(fā)現(xiàn)出來了ShuffleAttention
yolov shuffle attention,yolov5改進,YOLO,深度學習,人工智能
到處完成,跑100epoch,不知道跑到什么時候!
結果還是下降文章來源地址http://www.zghlxwxcb.cn/news/detail-819064.html

到了這里,關于(超詳細)4-YOLOV5改進-添加ShuffleAttention注意力機制的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 改進YOLOv5:添加EMA注意力機制

    改進YOLOv5:添加EMA注意力機制

    提示:文章寫完后,目錄可以自動生成,如何生成可參考右邊的幫助文檔 本文主要介紹一種在YOLOv5-7.0中添加EMA注意力機制的方法。EMA注意力機制原論文地址,有關EMA注意力機制的解讀可參考文章。 在yolov5的models文件中新建一個名為EMA.py文件,將下述代碼復制到EMA.py文件中并

    2024年02月09日
    瀏覽(31)
  • YOLOv5改進系列(1)——添加SE注意力機制

    YOLOv5改進系列(1)——添加SE注意力機制

    從這篇開始我們進入YOLOv5改進系列。那就先從最簡單的添加注意力機制開始吧!( ̄︶ ̄)↗ 【YOLOv5改進系列】前期回顧: YOLOv5改進系列(0)——重要性能指標與訓練結果評價及分析 目錄

    2024年02月03日
    瀏覽(36)
  • YOLOv5改進算法之添加CA注意力機制模塊

    YOLOv5改進算法之添加CA注意力機制模塊

    目錄 ? 1.CA注意力機制 2.YOLOv5添加注意力機制 送書活動 ? CA(Coordinate Attention)注意力機制是一種用于加強深度學習模型對輸入數(shù)據(jù)的空間結構理解的注意力機制。CA 注意力機制的核心思想是引入坐標信息,以便模型可以更好地理解不同位置之間的關系。如下圖: 1. 輸入特征

    2024年02月09日
    瀏覽(30)
  • YOLOv5改進系列(26)——添加RFAConv注意力卷積(感受野注意力卷積運算)

    YOLOv5改進系列(26)——添加RFAConv注意力卷積(感受野注意力卷積運算)

    【YOLOv5改進系列】前期回顧: YOLOv5改進系列(0)——重要性能指標與訓練結果評價及分析 YOLOv5改進系列(1)——添加SE注意力機制

    2024年01月17日
    瀏覽(23)
  • [YOLOv7/YOLOv5系列算法改進NO.4]添加ECA通道注意力機制

    [YOLOv7/YOLOv5系列算法改進NO.4]添加ECA通道注意力機制

    ?前? ? ? 言 作為當前先進的深度學習目標檢測算法YOLOv5,已經(jīng)集合了大量的trick,但是在處理一些復雜背景問題的時候,還是容易出現(xiàn)錯漏檢的問題。此后的系列文章,將重點對YOLOv5的如何改進進行詳細的介紹,目的是為了給那些搞科研的同學需要創(chuàng)新點或者搞工程項目的

    2024年02月05日
    瀏覽(28)
  • 【目標檢測】yolov5改進系列:主干網(wǎng)絡中添加SE注意力機制網(wǎng)絡

    寫在前面: 首先感謝兄弟們的關注和訂閱,讓我有創(chuàng)作的動力,在創(chuàng)作過程我會盡最大能力,保證作品的質(zhì)量,如果有問題,可以私信我,讓我們攜手共進,共創(chuàng)輝煌。 CNN網(wǎng)絡中,圖像或者說特征圖Feature Map的特征主要分為空間特征(Spatial)和通道(Channel)特征。對于空間

    2023年04月16日
    瀏覽(28)
  • YOLOv5改進系列(20)——添加BiFormer注意力機制(CVPR2023|小目標漲點神器)

    YOLOv5改進系列(20)——添加BiFormer注意力機制(CVPR2023|小目標漲點神器)

    ? ? 【YOLOv5改進系列】前期回顧: YOLOv5改進系列(0)——重要性能指標與訓練結果評價及分析 YOLOv5改進系列(1)——添加SE注意力機制 YOLOv5改進系列(2)——添加CBAM注意力機

    2024年02月13日
    瀏覽(19)
  • YOLOv5改進 | 一文匯總:如何在網(wǎng)絡結構中添加注意力機制、C3、卷積、Neck、SPPF、檢測頭

    本篇文章的內(nèi)容是在大家得到一個改進版本的C3一個新的注意力機制、或者一個新的卷積模塊、或者是檢測頭的時候如何替換我們YOLOv5模型中的原有的模塊,從而用你的模塊去進行訓練模型或者檢測。因為最近開了一個專欄里面涉及到挺多改進的地方,不能每篇文章都去講解

    2024年02月19日
    瀏覽(27)
  • 【目標檢測實驗系列】YOLOv5模型改進:融入坐標注意力機制CA,多維度關注數(shù)據(jù)特征,高效漲點!(內(nèi)含源代碼,超詳細改進代碼流程)

    【目標檢測實驗系列】YOLOv5模型改進:融入坐標注意力機制CA,多維度關注數(shù)據(jù)特征,高效漲點!(內(nèi)含源代碼,超詳細改進代碼流程)

    ? ? ? ? 自我介紹:本人碩士期間全程放養(yǎng),目前成果:一篇北大核心CSCD錄用,兩篇中科院三區(qū)已見刊,一篇中科院四區(qū)在投。如何找創(chuàng)新點,如何放養(yǎng)過程厚積薄發(fā),如何寫中英論文,找期刊等等。本人后續(xù)會以自己實戰(zhàn)經(jīng)驗詳細寫出來,還請大家能夠點個關注和贊,收藏一

    2024年01月20日
    瀏覽(30)
  • YOLOv5、YOLOv8改進:S2注意力機制

    YOLOv5、YOLOv8改進:S2注意力機制

    目錄 1.簡介 2.YOLOv5改進 2.1增加以下S2-MLPv2.yaml文件 2.2common.py配置 2.3yolo.py配置 ?S2-MLPv2注意力機制 ? 最近,出現(xiàn)了基于 MLP 的視覺主干。與 CNN 和視覺Transformer相比,基于 MLP 的視覺架構具有較少的歸納偏差,在圖像識別方面實現(xiàn)了有競爭力的性能。其中,spatial-shift MLP (S2-MLP),

    2024年02月12日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包