国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【深度學(xué)習(xí)注意力機(jī)制系列】—— SKNet注意力機(jī)制(附pytorch實(shí)現(xiàn))

這篇具有很好參考價(jià)值的文章主要介紹了【深度學(xué)習(xí)注意力機(jī)制系列】—— SKNet注意力機(jī)制(附pytorch實(shí)現(xiàn))。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

SKNet(Selective Kernel Network)是一種用于圖像分類和目標(biāo)檢測(cè)任務(wù)的深度神經(jīng)網(wǎng)絡(luò)架構(gòu),其核心創(chuàng)新是引入了選擇性的多尺度卷積核(Selective Kernel)以及一種新穎的注意力機(jī)制,從而在不增加網(wǎng)絡(luò)復(fù)雜性的情況下提升了特征提取的能力。SKNet的設(shè)計(jì)旨在解決多尺度信息融合的問(wèn)題,使網(wǎng)絡(luò)能夠適應(yīng)不同尺度的特征。

1. 核心思想

SKNet的核心思想是**通過(guò)選擇性地應(yīng)用不同尺度的卷積核,從而在不同層級(jí)上捕捉多尺度特征。**為了實(shí)現(xiàn)這一點(diǎn),SKNet引入了一個(gè)選擇模塊,用于自適應(yīng)地決定在每個(gè)通道上使用哪些尺度的卷積核。這種選擇性的多尺度卷積核有助于提升特征表示的能力,使網(wǎng)絡(luò)更具適應(yīng)性和泛化能力。

2. 結(jié)構(gòu)

SKNet的結(jié)構(gòu)如下:

【深度學(xué)習(xí)注意力機(jī)制系列】—— SKNet注意力機(jī)制(附pytorch實(shí)現(xiàn)),深度學(xué)習(xí),# PyTorch,深度學(xué)習(xí),pytorch,人工智能

實(shí)現(xiàn)機(jī)制:

  • split:對(duì)特征圖進(jìn)行多分支分離卷積,各分支使用不同的卷積核(感受野不同)進(jìn)行特征提取。(并未對(duì)原始特征圖進(jìn)行拆解分離,只是使用不同的卷積核對(duì)原始特征圖進(jìn)行卷積操作)。假設(shè)分支為n,則特征圖維度變換為 (c, h, w) -> (n, c, h, w),原文中n=2。

  • Fuse:將多個(gè)分支的特征圖提取結(jié)果相加。特征圖維度變換為 (n, c, h, w) -> (c, h, w)。再通過(guò)全局平均池,特征圖維度變換為 (c, h, w) -> (c, 1, 1),然后利用全連接層進(jìn)行降維(限制了最低維度,通過(guò)全連接層生成d×1的向量(圖中的z),公式如圖中所示(δ表示ReLU激活函數(shù),B表示Batch Noramlization,W是一個(gè)d×C的維的)。d的取值是由公式d = max(C/r,L)確定,r是一個(gè)縮小的比率(與SENet中相似),L表示d的最小值,原文實(shí)驗(yàn)中L的值為32。),再利用兩個(gè)(或多個(gè),和分支數(shù)目相同,原論文中為兩個(gè))全連接層進(jìn)行升維,得到兩個(gè)(多個(gè))維度同降維前相同的特征圖(向量)。在對(duì)兩個(gè)特征向量進(jìn)行softmax處理。假設(shè)分支為n,則特征圖維度為 n個(gè)(c, 1, 1) ,原文中n=2,即a->(c, 1, 1), b->(c, 1, 1)。

  • select:利用softmax處理后的多個(gè)特征向量分別乘以第一步中的多分支提取的特征圖結(jié)果。特征維度變化為n個(gè)(c, 1 ,1) * n 個(gè)(c, h ,w) = (n, c, h, w)。最后將n個(gè)特征圖進(jìn)行相加。

3. 優(yōu)勢(shì)

SKNet的設(shè)計(jì)在以下幾個(gè)方面具有優(yōu)勢(shì):

  • 多尺度信息融合

通過(guò)選擇性地應(yīng)用不同尺度的卷積核,SKNet能夠有效地融合多尺度的特征信息。這有助于網(wǎng)絡(luò)捕捉不同層次的視覺(jué)特征,提高了特征的表征能力。

  • 自適應(yīng)性

選擇模塊使網(wǎng)絡(luò)能夠自適應(yīng)地選擇卷積核的尺度,從而適應(yīng)不同任務(wù)和圖像的特點(diǎn)。這種自適應(yīng)性能夠使網(wǎng)絡(luò)在各種場(chǎng)景下都能表現(xiàn)出色。

  • 減少計(jì)算成本

盡管引入了多尺度卷積核,但由于選擇模塊的存在,SKNet只會(huì)選擇一部分卷積核進(jìn)行計(jì)算,從而減少了計(jì)算成本,保持了網(wǎng)絡(luò)的高效性。

4.代碼實(shí)現(xiàn)

class SKNet(nn.Module):
    def __init__(self, in_channels, out_channels, stride=1, M=2, r=16, L=32):
        """
        :param in_channels:  輸入通道維度
        :param out_channels: 輸出通道維度   原論文中 輸入輸出通道維度相同
        :param stride:  步長(zhǎng),默認(rèn)為1
        :param M:  分支數(shù)
        :param r: 特征Z的長(zhǎng)度,計(jì)算其維度d 時(shí)所需的比率(論文中 特征S->Z 是降維,故需要規(guī)定 降維的下界)
        :param L:  論文中規(guī)定特征Z的下界,默認(rèn)為32
        采用分組卷積: groups = 32,所以輸入channel的數(shù)值必須是group的整數(shù)倍
        """
        super(SKNet, self).__init__()
        d = max(in_channels // r, L)  
        self.M = M
        self.out_channels = out_channels
        self.conv = nn.ModuleList() 
        for i in range(M):
            self.conv.append(nn.Sequential(
                nn.Conv2d(in_channels, out_channels, 3, stride, padding=1 + i, dilation=1 + i, groups=32, bias=False),
                nn.BatchNorm2d(out_channels),
                nn.ReLU(inplace=True)))
        self.global_pool = nn.AdaptiveAvgPool2d(output_size=1) 
        self.fc1 = nn.Sequential(nn.Conv2d(out_channels, d, 1, bias=False),
                                 nn.BatchNorm2d(d),
                                 nn.ReLU(inplace=True))  # 降維
        self.fc2 = nn.Conv2d(d, out_channels * M, 1, 1, bias=False)  
        self.softmax = nn.Softmax(dim=1) 
    def forward(self, input):
        batch_size = input.size(0)
        output = []
        for i, conv in enumerate(self.conv):
            output.append(conv(input))
        U = reduce(lambda x, y: x + y, output)  
        s = self.global_pool(U)  
        z = self.fc1(s)
        a_b = self.fc2(z) 
        a_b = a_b.reshape(batch_size, self.M, self.out_channels, -1) 
        a_b = self.softmax(a_b) 
        a_b = list(a_b.chunk(self.M, dim=1))  
        a_b = list(map(lambda x: x.reshape(batch_size, self.out_channels, 1, 1),
                       a_b))  
        V = list(map(lambda x, y: x * y, output,
                     a_b))  
        V = reduce(lambda x, y: x + y,
                   V)  
        return V

總結(jié)

SKNet是一種創(chuàng)新的深度神經(jīng)網(wǎng)絡(luò)架構(gòu),通過(guò)引入選擇性的多尺度卷積核和注意力機(jī)制,提升了特征提取的能力。其核心結(jié)構(gòu)包括選擇模塊和SK卷積層,能夠有效地融合多尺度信息、自適應(yīng)地調(diào)整卷積核的尺度,并減少計(jì)算成本。這使得SKNet在圖像分類和目標(biāo)檢測(cè)等任務(wù)中取得了優(yōu)越的性能。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-636506.html

到了這里,關(guān)于【深度學(xué)習(xí)注意力機(jī)制系列】—— SKNet注意力機(jī)制(附pytorch實(shí)現(xiàn))的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 注意力機(jī)制(SE, ECA, CBAM, SKNet, scSE, Non-Local, GCNet, ASFF) Pytorch代碼

    注意力機(jī)制(SE, ECA, CBAM, SKNet, scSE, Non-Local, GCNet, ASFF) Pytorch代碼

    2023.3.2新增SKNet代碼 2023.3.10 新增 scSE代碼 2023.3.11 新增 Non-Local Net 非局部神經(jīng)網(wǎng)絡(luò) 2023.3.13新增GCNet 2023.6.7新增ASFF SE注意力機(jī)制(Squeeze-and-Excitation Networks) :是一種 通道類型 的注意力機(jī)制,就是在通道維度上增加注意力機(jī)制,主要內(nèi)容是是 squeeze 和 excitation . 就是使用另外一個(gè)

    2024年02月08日
    瀏覽(20)
  • 點(diǎn)云深度學(xué)習(xí)系列博客(五): 注意力機(jī)制原理概述

    點(diǎn)云深度學(xué)習(xí)系列博客(五): 注意力機(jī)制原理概述

    目錄 1. 注意力機(jī)制由來(lái) 2. Nadaraya-Watson核回歸 3. 多頭注意力與自注意力 4. Transformer模型 Reference 隨著Transformer模型在NLP,CV甚至CG領(lǐng)域的流行,注意力機(jī)制(Attention Mechanism)被越來(lái)越多的學(xué)者所注意,將其引入各種深度學(xué)習(xí)任務(wù)中,以提升性能。清華大學(xué)胡世民教授團(tuán)隊(duì)近期發(fā)

    2024年02月10日
    瀏覽(25)
  • 【深度學(xué)習(xí)】注意力機(jī)制

    注意力機(jī)制(Attention Mechanism)是一種在計(jì)算機(jī)科學(xué)和機(jī)器學(xué)習(xí)中常用的技術(shù),可以使模型在處理序列數(shù)據(jù)時(shí)更加準(zhǔn)確和有效。在傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)中,每個(gè)神經(jīng)元的輸出只依賴于前一層的所有神經(jīng)元的輸出,而在注意力機(jī)制中,每個(gè)神經(jīng)元的輸出不僅僅取決于前一層的所有神經(jīng)

    2024年02月02日
    瀏覽(39)
  • 深度學(xué)習(xí)——常見(jiàn)注意力機(jī)制

    深度學(xué)習(xí)——常見(jiàn)注意力機(jī)制

    SENet屬于通道注意力機(jī)制。2017年提出,是imageNet最后的冠軍 SENet采用的方法是對(duì)于特征層賦予權(quán)值。 重點(diǎn)在于如何賦權(quán) 1.將輸入信息的所有通道平均池化。 2.平均池化后進(jìn)行兩次全連接,第一次全連接鏈接的神經(jīng)元較少,第二次全連接神經(jīng)元數(shù)和通道數(shù)一致 3.將Sigmoid的值固定

    2024年02月14日
    瀏覽(30)
  • 【動(dòng)手深度學(xué)習(xí)-筆記】注意力機(jī)制(四)自注意力、交叉注意力和位置編碼

    【動(dòng)手深度學(xué)習(xí)-筆記】注意力機(jī)制(四)自注意力、交叉注意力和位置編碼

    緊接上回:【動(dòng)手深度學(xué)習(xí)-筆記】注意力機(jī)制(三)多頭注意力 在注意力機(jī)制下,我們將詞元序列輸入注意力匯聚中,以便同一組詞元同時(shí)充當(dāng)查詢、鍵和值。 具體來(lái)說(shuō),每個(gè)查詢都會(huì)關(guān)注所有的鍵-值對(duì)并生成一個(gè)注意力輸出。 像這樣的,查詢、鍵和值來(lái)自同一組輸入的

    2024年01月16日
    瀏覽(76)
  • 深度學(xué)習(xí)(5)---自注意力機(jī)制

    深度學(xué)習(xí)(5)---自注意力機(jī)制

    ?1. 一般情況下在簡(jiǎn)單模型中我們輸入一個(gè)向量,輸出結(jié)果可能是一個(gè)數(shù)值或者一個(gè)類別。但是在復(fù)雜的模型中我們一般會(huì)輸入一組向量,那么輸出結(jié)果可能是一組數(shù)值或一組類別。 ?2. 一句話、一段語(yǔ)音、一張圖等都可以轉(zhuǎn)換成一組向量。 ?3. 輸入一組向量,一般輸出結(jié)

    2024年01月23日
    瀏覽(23)
  • 【深度學(xué)習(xí)實(shí)驗(yàn)】注意力機(jī)制(一):注意力權(quán)重矩陣可視化(矩陣熱圖heatmap)

    【深度學(xué)習(xí)實(shí)驗(yàn)】注意力機(jī)制(一):注意力權(quán)重矩陣可視化(矩陣熱圖heatmap)

    ? ?? 注意力機(jī)制 作為一種模擬人腦信息處理的關(guān)鍵工具,在深度學(xué)習(xí)領(lǐng)域中得到了廣泛應(yīng)用。本系列實(shí)驗(yàn)旨在通過(guò)理論分析和代碼演示,深入了解注意力機(jī)制的原理、類型及其在模型中的實(shí)際應(yīng)用。 本文將介紹將介紹 注意力權(quán)重矩陣可視化 (矩陣熱圖heatmap) ??本系

    2024年02月05日
    瀏覽(30)
  • 深度學(xué)習(xí)CV方向?qū)W習(xí)筆記5 —— 通道注意力機(jī)制

    深度學(xué)習(xí)CV方向?qū)W習(xí)筆記5 —— 通道注意力機(jī)制

    目錄 1 問(wèn)題:MobileNet 中的注意力機(jī)制 2 SE 通道注意力機(jī)制 2.1 SE 通道注意力機(jī)制的定義與作用 2.2 SE過(guò)程: Squeeze + Excitation + Scale 3 其他通道注意力機(jī)制 4 參考鏈接 問(wèn)題描述: MobileNet 中使用了通道注意力機(jī)制,是如何實(shí)現(xiàn)的?CNN中還有哪些 Attention? 2.1 SE 通道注意力機(jī)制的定義

    2024年02月08日
    瀏覽(20)
  • 【深度學(xué)習(xí)】--圖像處理中的注意力機(jī)制

    【深度學(xué)習(xí)】--圖像處理中的注意力機(jī)制

    注意力機(jī)制是一個(gè)非常有效的trick,注意力機(jī)制的實(shí)現(xiàn)方式有許多。可以在知網(wǎng)上搜索一下yolov下的目標(biāo)監(jiān)測(cè)的碩士論文,沒(méi)有一篇不提到注意力機(jī)制的迭代修改的,所以很有必要學(xué)一下. 最后給出了一個(gè)例子。 注意力機(jī)制的本質(zhì):就是尋址過(guò)程! 幾種典型的注意力機(jī)制: hard

    2024年02月03日
    瀏覽(24)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包