国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

U-Net網(wǎng)絡模型改進(添加通道與空間注意力機制)---親測有效,指標提升

這篇具有很好參考價值的文章主要介紹了U-Net網(wǎng)絡模型改進(添加通道與空間注意力機制)---親測有效,指標提升。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

U-Net網(wǎng)絡模型(注意力改進版本)
這一段時間做項目用到了U-Net網(wǎng)絡模型,但是原始的U-Net網(wǎng)絡還有很大的改良空間,在卷積下采樣的過程中加入了通道注意力和空間注意力 。

常規(guī)的U-net模型如下圖:
改進的u-net模型,深度學習案例實戰(zhàn),Python,網(wǎng)絡,深度學習,人工智能
紅色箭頭為可以添加的地方:即下采樣之間。
改進的u-net模型,深度學習案例實戰(zhàn),Python,網(wǎng)絡,深度學習,人工智能

通道空間注意力是一個即插即用的注意力模塊(如下圖):
改進的u-net模型,深度學習案例實戰(zhàn),Python,網(wǎng)絡,深度學習,人工智能
代碼加入之后對于分割效果是有提升的:(代碼如下)

CBAM代碼:

class ChannelAttentionModule(nn.Module):
    def __init__(self, channel, ratio=16):
        super(ChannelAttentionModule, self).__init__()
        self.avg_pool = nn.AdaptiveAvgPool2d(1)
        self.max_pool = nn.AdaptiveMaxPool2d(1)

        self.shared_MLP = nn.Sequential(
            nn.Conv2d(channel, channel // ratio, 1, bias=False),
            nn.ReLU(),
            nn.Conv2d(channel // ratio, channel, 1, bias=False)
        )
        self.sigmoid = nn.Sigmoid()

    def forward(self, x):
        avgout = self.shared_MLP(self.avg_pool(x))
        maxout = self.shared_MLP(self.max_pool(x))
        return self.sigmoid(avgout + maxout)

class SpatialAttentionModule(nn.Module):
    def __init__(self):
        super(SpatialAttentionModule, self).__init__()
        self.conv2d = nn.Conv2d(in_channels=2, out_channels=1, kernel_size=7, stride=1, padding=3)
        self.sigmoid = nn.Sigmoid()

    def forward(self, x):
        avgout = torch.mean(x, dim=1, keepdim=True)
        maxout, _ = torch.max(x, dim=1, keepdim=True)
        out = torch.cat([avgout, maxout], dim=1)
        out = self.sigmoid(self.conv2d(out))
        return out

class CBAM(nn.Module):
    def __init__(self, channel):
        super(CBAM, self).__init__()
        self.channel_attention = ChannelAttentionModule(channel)
        self.spatial_attention = SpatialAttentionModule()

    def forward(self, x):
        out = self.channel_attention(x) * x
        out = self.spatial_attention(out) * out
        return out

網(wǎng)絡模型結(jié)合之后代碼:文章來源地址http://www.zghlxwxcb.cn/news/detail-840374.html

class conv_block(nn.Module):
    def __init__(self,ch_in,ch_out):
        super(conv_block,self).__init__()
        self.conv = nn.Sequential(
            nn.Conv2d(ch_in, ch_out, kernel_size=3,stride=1,padding=1,bias=True),
            nn.BatchNorm2d(ch_out),
            nn.ReLU(inplace=True),
            nn.Conv2d(ch_out, ch_out, kernel_size=3,stride=1,padding=1,bias=True),
            nn.BatchNorm2d(ch_out),
            nn.ReLU(inplace=True)
        )

    def forward(self,x):
        x = self.conv(x)
        return x

class up_conv(nn.Module):
    def __init__(self,ch_in,ch_out):
        super(up_conv,self).__init__()
        self.up = nn.Sequential(
            nn.Upsample(scale_factor=2),
            nn.Conv2d(ch_in,ch_out,kernel_size=3,stride=1,padding=1,bias=True),
		    nn.BatchNorm2d(ch_out),
			nn.ReLU(inplace=True)
        )

    def forward(self,x):
        x = self.up(x)
        return x

class U_Net_v1(nn.Module):   #添加了空間注意力和通道注意力
    def __init__(self,img_ch=3,output_ch=2):
        super(U_Net_v1,self).__init__()
        
        self.Maxpool = nn.MaxPool2d(kernel_size=2,stride=2)

        self.Conv1 = conv_block(ch_in=img_ch,ch_out=64) #64
        self.Conv2 = conv_block(ch_in=64,ch_out=128)  #64 128
        self.Conv3 = conv_block(ch_in=128,ch_out=256) #128 256
        self.Conv4 = conv_block(ch_in=256,ch_out=512) #256 512
        self.Conv5 = conv_block(ch_in=512,ch_out=1024) #512 1024

        self.cbam1 = CBAM(channel=64)
        self.cbam2 = CBAM(channel=128)
        self.cbam3 = CBAM(channel=256)
        self.cbam4 = CBAM(channel=512)

        self.Up5 = up_conv(ch_in=1024,ch_out=512)  #1024 512
        self.Up_conv5 = conv_block(ch_in=1024, ch_out=512)  

        self.Up4 = up_conv(ch_in=512,ch_out=256)  #512 256
        self.Up_conv4 = conv_block(ch_in=512, ch_out=256)  
        
        self.Up3 = up_conv(ch_in=256,ch_out=128)  #256 128
        self.Up_conv3 = conv_block(ch_in=256, ch_out=128) 
        
        self.Up2 = up_conv(ch_in=128,ch_out=64) #128 64
        self.Up_conv2 = conv_block(ch_in=128, ch_out=64)  

        self.Conv_1x1 = nn.Conv2d(64,output_ch,kernel_size=1,stride=1,padding=0)  #64


    def forward(self,x):
        # encoding path
        x1 = self.Conv1(x)
        x1 = self.cbam1(x1) + x1

        x2 = self.Maxpool(x1)
        x2 = self.Conv2(x2)
        x2 = self.cbam2(x2) + x2
        
        x3 = self.Maxpool(x2)
        x3 = self.Conv3(x3)
        x3 = self.cbam3(x3) + x3

        x4 = self.Maxpool(x3)
        x4 = self.Conv4(x4)
        x4 = self.cbam4(x4) + x4

        x5 = self.Maxpool(x4)
        x5 = self.Conv5(x5)

        # decoding + concat path
        d5 = self.Up5(x5)
        d5 = torch.cat((x4,d5),dim=1)
        
        d5 = self.Up_conv5(d5)
        
        d4 = self.Up4(d5)
        d4 = torch.cat((x3,d4),dim=1)
        d4 = self.Up_conv4(d4)

        d3 = self.Up3(d4)
        d3 = torch.cat((x2,d3),dim=1)
        d3 = self.Up_conv3(d3)

        d2 = self.Up2(d3)
        d2 = torch.cat((x1,d2),dim=1)
        d2 = self.Up_conv2(d2)

        d1 = self.Conv_1x1(d2)

        return d1

到了這里,關于U-Net網(wǎng)絡模型改進(添加通道與空間注意力機制)---親測有效,指標提升的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 【目標檢測】yolov5改進系列:主干網(wǎng)絡中添加SE注意力機制網(wǎng)絡

    寫在前面: 首先感謝兄弟們的關注和訂閱,讓我有創(chuàng)作的動力,在創(chuàng)作過程我會盡最大能力,保證作品的質(zhì)量,如果有問題,可以私信我,讓我們攜手共進,共創(chuàng)輝煌。 CNN網(wǎng)絡中,圖像或者說特征圖Feature Map的特征主要分為空間特征(Spatial)和通道(Channel)特征。對于空間

    2023年04月16日
    瀏覽(28)
  • 論文推薦:DCSAU-Net,更深更緊湊注意力U-Net

    論文推薦:DCSAU-Net,更深更緊湊注意力U-Net

    這是一篇23年發(fā)布的新論文,論文提出了一種更深、更緊湊的分裂注意力的U-Net,該網(wǎng)絡基于主特征守恒和緊湊分裂注意力模塊,有效地利用了底層和高層語義信息。 1、架構(gòu) DCSAU-Net 的編碼器首先使用 PFC 策略從輸入圖像中提取低級語義信息。 CSA 塊應用具有不同卷積數(shù)和注意

    2023年04月13日
    瀏覽(25)
  • 通道信息,空間信息,通道注意力以及空間注意力

    通道信息和空間信息是圖像中兩種不同的信息類型。 通道信息是指圖像中每個像素點的不同顏色通道(例如RGB圖像中的紅、綠、藍通道)之間的信息差異。通道信息通常表示圖像的全局特征,例如圖像的顏色、明暗等。 空間信息則是指圖像中每個像素點的位置和周圍像素點

    2024年02月13日
    瀏覽(23)
  • YOLOv8改進 | 如何在網(wǎng)絡結(jié)構(gòu)中添加注意力機制、C2f、卷積、Neck、檢測頭

    本篇文章的內(nèi)容是在大家得到一個 改進版本的 C2f一個新的注意力機制、或者一個新的卷積模塊、或者是檢測頭的時候如何 替換我們YOLOv8模型中的原有的模塊 ,從而用你的模塊去進行訓練模型或者檢測。因為最近開了一個專欄里面涉及到挺多改進的地方,不能每篇文章都去講

    2024年02月05日
    瀏覽(50)
  • U-Net Transformer:用于醫(yī)學圖像分割的自我和交叉注意力模塊

    U-Net Transformer:用于醫(yī)學圖像分割的自我和交叉注意力模塊

    對于復雜和低對比度的解剖結(jié)構(gòu),醫(yī)學圖像分割仍然特別具有挑戰(zhàn)性。本文提出的一種U-Transformer網(wǎng)絡,它將Transformer中的self-attention和Cross attention融合進了UNet,這樣克服了UNet無法建模長程關系和空間依賴的缺點,從而提升對關鍵上下文的分割。本文集合了兩種注意力機制:自

    2024年02月06日
    瀏覽(14)
  • YOLOv5改進 | 一文匯總:如何在網(wǎng)絡結(jié)構(gòu)中添加注意力機制、C3、卷積、Neck、SPPF、檢測頭

    本篇文章的內(nèi)容是在大家得到一個改進版本的C3一個新的注意力機制、或者一個新的卷積模塊、或者是檢測頭的時候如何替換我們YOLOv5模型中的原有的模塊,從而用你的模塊去進行訓練模型或者檢測。因為最近開了一個專欄里面涉及到挺多改進的地方,不能每篇文章都去講解

    2024年02月19日
    瀏覽(26)
  • 改進YOLOv8/YOLOv5系列:助力漲點,魔改注意力,動態(tài)通道注意力模塊DyCAConv,帶改進描述

    在深度學習領域,尤其是計算機視覺任務中,神經(jīng)網(wǎng)絡需要捕捉圖像中的多尺度特征以實現(xiàn)有效的特征表征。為了實現(xiàn)這一目標,研究人員不斷開發(fā)新的模塊和結(jié)構(gòu)來改進神經(jīng)網(wǎng)絡的性能。通道注意力模塊是一種有效的方法,旨在為每個通道分配權(quán)重,使網(wǎng)絡關注更重要的通

    2023年04月25日
    瀏覽(31)
  • Pointnet++改進注意力機制系列:全網(wǎng)首發(fā)SE通道注意力機制 |即插即用,實現(xiàn)有效漲點!

    簡介: 1.該教程提供大量的首發(fā)改進的方式,降低上手難度,多種結(jié)構(gòu)改進,助力尋找創(chuàng)新點! 2.本篇文章對Pointnet++特征提取模塊進行改進,加入 SE 注意力機制,提升性能。 3.專欄持續(xù)更新,緊隨最新的研究內(nèi)容。 目錄 1.理論介紹 2.修改步驟 2.1 步驟一 ? ? ? ? ?2.2 步驟二

    2024年01月15日
    瀏覽(103)
  • 改進版ASPP:ASPP加入通道注意力機制(SENET),即SE_ASPP

    改進版ASPP:ASPP加入通道注意力機制(SENET),即SE_ASPP

    空洞空間卷積池化金字塔(atrous spatial pyramid pooling (ASPP))通過對于輸入的特征以不同的采樣率進行采樣,即從不同尺度提取輸入特征,然后將所獲取的特征進行融合,得到最終的特征提取結(jié)果。 通道注意力機制(SENET)將尺度為HXWXC尺度大小的特征圖通過全局平均池化進行壓

    2024年02月15日
    瀏覽(26)
  • 大白話分析注意力機制和空間和通道注意力機制

    大白話分析注意力機制和空間和通道注意力機制

    深度學習小白,個人理解,有錯誤請友友們糾正QAQ 官方解釋:注意力機制(Attention Mechanism)源于對人類視覺的研究。在認知科學中,由于信息處理的瓶頸,人類會選擇性地關注所有信息的一部分,同時忽略其他可見的信息。上述機制通常被稱為注意力機制。 假設你正在準備

    2024年04月17日
    瀏覽(36)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包