国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深度學(xué)習(xí)|論文中常用的注意力模塊合集(下)

這篇具有很好參考價(jià)值的文章主要介紹了深度學(xué)習(xí)|論文中常用的注意力模塊合集(下)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

注意力機(jī)制可以增加少量參數(shù)的情況下來(lái)提升計(jì)算精度和模型性能,在論文中常用的注意力模塊合集(上)中介紹了三種注意力機(jī)制,它們分別是CA、CBAM和SE,均在目標(biāo)檢測(cè)和語(yǔ)義分割領(lǐng)域內(nèi)能夠提升模型的性能,廢話不多說(shuō),直接開(kāi)始講解剩下的論文中常用的注意力模型。

1、有效通道注意力(Efficient Channel Attention Module, ECA)

深度學(xué)習(xí)中,降維不利于學(xué)習(xí)通道注意力,但是適當(dāng)?shù)目缤ǖ澜换タ梢栽陲@著降低模型復(fù)雜性的同時(shí)保持性能。因此,這里的有效通道注意力(Efficient Channel Attention Module, ECA)模塊是一種通過(guò)1D卷積實(shí)現(xiàn)無(wú)降維的局部跨信道交互策略,且可以自適應(yīng)地選擇1D卷積的核大小,以確定本地跨信道交互的覆蓋范圍,可以帶來(lái)比較明顯的性能增益,結(jié)構(gòu)如圖1所示。

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

圖1 ECA結(jié)構(gòu)圖

ECA模塊需要確定交互的覆蓋范圍來(lái)捕獲本地跨信道交互,但手動(dòng)調(diào)整交互的優(yōu)化覆蓋范圍會(huì)導(dǎo)致耗費(fèi)大量計(jì)算資源。由于組卷積改進(jìn)CNN架構(gòu)中的高維(低維)信道會(huì)共享給定固定數(shù)量組的長(zhǎng)距離(短距離)卷積,因此,相互作用的覆蓋范圍(即1D卷積核的大小k)與通道維度C成比例,即k和C之間存在映射φ:

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

最簡(jiǎn)單的映射是線性函數(shù),即φ(k)=γ*k?b,但是線性函數(shù)所表征的關(guān)系過(guò)于有限。另一方面,通道維度C常常是2的指數(shù)冪。故可將線性函數(shù)擴(kuò)展為非線性函數(shù):

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

因此,當(dāng)給定通道維度C時(shí),卷積核大小k可以通過(guò)下述公式進(jìn)行自適應(yīng)確定:

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

其中,

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

表示離t最近的奇數(shù),這里將將γ和b分別設(shè)置為2和1。因此,通過(guò)使用非線性映射,高維通道具有更長(zhǎng)距離的相互作用,而低維通道具有更短距離的相互作用。

2、雙重注意力(Dual attention network,DANet)

雙重注意網(wǎng)絡(luò)以自適應(yīng)地將局部特征與其全局依賴性集成,如圖2所示,具體是分別在空間維度和通道維度上對(duì)語(yǔ)義相關(guān)性進(jìn)行建模,空間維度上通過(guò)所有位置的特征加權(quán)和來(lái)選擇性地聚集每個(gè)位置的特征,通道維度上通過(guò)整合所有通道特征圖中的相關(guān)特征來(lái)選擇性地強(qiáng)調(diào)相互依賴的通道特征。然后,將兩個(gè)注意力模塊的輸出相加,以進(jìn)一步改進(jìn)特征表示,有利于獲得更精確的分割結(jié)果。

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

圖2 DANet模塊

2.1 空間注意力模塊

空間注意力模塊能夠在局部特征上建立豐富的上下文關(guān)系模型,同時(shí)可以將更廣泛的上下文信息編碼為局部特征,從而增強(qiáng)其表示能力。

如圖3所示,給定局部特征

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

,將其輸入卷積層以分別生成兩個(gè)新的特征映射B和C,其中

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

,然后令它們重塑為

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

,其中N=H×W表示為像素?cái)?shù)。之后,在C和B的轉(zhuǎn)置之間執(zhí)行矩陣乘法,并應(yīng)用softmax層來(lái)計(jì)算空間注意力圖

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

其中

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

是計(jì)算第i個(gè)位置對(duì)第j個(gè)位置的影響。兩個(gè)位置的更相似的特征表示有助于它們之間的更大相關(guān)性。

同時(shí),也將特征A輸入到卷積層中,以生成新的特征映射

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

并依舊對(duì)其進(jìn)行重塑為

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

。然后在D和S的轉(zhuǎn)置之間執(zhí)行矩陣乘法,并將結(jié)果重塑為

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

。最后,將其乘以比例系數(shù)α,并對(duì)特征A執(zhí)行逐元素求和運(yùn)算,以獲得最終輸出

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

,如下所示

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

其中α初始化為0,并逐漸分配更多權(quán)重,且由此式可以推斷出,每個(gè)位置處的結(jié)果特征E是所有位置上的特征和原始特征的加權(quán)和。因此,通過(guò)全局上下文視圖,并根據(jù)空間注意力圖選擇性地聚合上下文,使得相似的語(yǔ)義特征得到了增強(qiáng),從而提高了類(lèi)內(nèi)緊湊性和語(yǔ)義一致性。

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

圖3 空間注意力模塊

2.2 通道注意力模塊

高級(jí)特征的每個(gè)通道圖都可以被視為一個(gè)特定類(lèi)的響應(yīng),不同的語(yǔ)義響應(yīng)彼此關(guān)聯(lián)。通過(guò)利用通道圖之間的相互依賴性,可以強(qiáng)調(diào)相互依賴的特征圖,并改進(jìn)特定語(yǔ)義的特征表示。

通道注意力模塊如圖3所示。與空間注意力模塊不同,直接從原始特征

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

計(jì)算通道注意力圖

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

,即先將A重塑為

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

,然后讓A和A的轉(zhuǎn)置之間進(jìn)行矩陣相乘。最后,應(yīng)用softmax層來(lái)獲得通道注意力映射

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

其中

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

是計(jì)算第i個(gè)通道對(duì)第j個(gè)通道的影響。此外,在X和a的轉(zhuǎn)置之間進(jìn)行矩陣乘法,并將其結(jié)果重塑為

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

。然后,將結(jié)果乘以比例參數(shù)β,并與a執(zhí)行逐元素求和運(yùn)算,以獲得最終輸出

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

:

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

其中Β是從0逐漸開(kāi)始學(xué)習(xí)權(quán)重。該式表明每個(gè)通道的最終特征是所有通道的特征和原始特征的加權(quán)和,也就是能夠?qū)μ卣鲌D之間的長(zhǎng)距離語(yǔ)義依賴性進(jìn)行了建模,有利于提高特征的可分辨性。

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

圖4 通道注意力模塊

為了充分利用長(zhǎng)程上下文信息,通過(guò)卷積層變換兩個(gè)注意力模塊的輸出,并執(zhí)行元素和以實(shí)現(xiàn)特征融合。最后,跟隨卷積層以生成最終預(yù)測(cè)圖。該注意力模塊簡(jiǎn)單,可以直接插入現(xiàn)有的FCN等框架中來(lái)有效增強(qiáng)特征表示,且不會(huì)增加太多參數(shù)。

3、柔性注意力

柔性注意力通過(guò)捕獲不同通道特征圖之間的特征依賴關(guān)系,計(jì)算所有通道特征圖的加權(quán)值,進(jìn)行顯式地建模特征通道之間地相關(guān)性。

結(jié)構(gòu)如圖5所示,對(duì)于輸入任意的HxWxC的特征層F,然后分別進(jìn)行空間的全局平均池化和最大池化,池化大小為HxW,得到兩個(gè)1x1xC的通道描述行向量Favg和Fmax。共享兩個(gè)全連接層(Total Fully Connected,TFC),采用Relu激活函數(shù),擬合通道之間的復(fù)雜相關(guān)性。再將得到的兩個(gè)通道描述行向量相加,經(jīng)過(guò)Sigmoid激活函數(shù)得到1x1xC的特征權(quán)重向量w,將原始的特征層和特征權(quán)重向量w進(jìn)行全乘操作,得到不同通道重要性不一樣的特征層。在重新生成的特征圖上通過(guò)滑動(dòng)窗口找到感興趣的區(qū)域,完成圖像分割。

特征注意力融合模塊,深度學(xué)習(xí),人工智能,計(jì)算機(jī)視覺(jué),深度學(xué)習(xí),人工智能,Powered by 金山文檔

圖4 柔性注意力模塊

4、其他

以上是在圖像中常用的注意力模塊的方法,此外還有依據(jù)任務(wù)的多樣性和復(fù)雜度來(lái)進(jìn)行修改注意力模塊,達(dá)到更輕便的架構(gòu),比如說(shuō)論文里面會(huì)采用多尺度拼接、殘差連接、擴(kuò)張卷積、自監(jiān)督機(jī)制、多頭自注意力、與多樣性正則化以及軟、硬注意力結(jié)合等等一些方法來(lái)提高模型性能。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-780037.html

到了這里,關(guān)于深度學(xué)習(xí)|論文中常用的注意力模塊合集(下)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【深度學(xué)習(xí)】注意力機(jī)制

    注意力機(jī)制(Attention Mechanism)是一種在計(jì)算機(jī)科學(xué)和機(jī)器學(xué)習(xí)中常用的技術(shù),可以使模型在處理序列數(shù)據(jù)時(shí)更加準(zhǔn)確和有效。在傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)中,每個(gè)神經(jīng)元的輸出只依賴于前一層的所有神經(jīng)元的輸出,而在注意力機(jī)制中,每個(gè)神經(jīng)元的輸出不僅僅取決于前一層的所有神經(jīng)

    2024年02月02日
    瀏覽(39)
  • 【深度學(xué)習(xí)注意力機(jī)制系列】—— SCSE注意力機(jī)制(附pytorch實(shí)現(xiàn))

    【深度學(xué)習(xí)注意力機(jī)制系列】—— SCSE注意力機(jī)制(附pytorch實(shí)現(xiàn))

    SCSE注意力模塊 (來(lái)自論文[1803.02579] Concurrent Spatial and Channel Squeeze Excitation in Fully Convolutional Networks (arxiv.org))。其對(duì)SE注意力模塊進(jìn)行了改進(jìn),提出了 cSE、sSE、scSE 三個(gè)模塊變體,這些模塊可以 增強(qiáng)有意義的特征,抑制無(wú)用特征 。今天我們就分別講解一下這三個(gè)注意力模塊。

    2024年02月13日
    瀏覽(20)
  • 【深度學(xué)習(xí)注意力機(jī)制系列】—— SENet注意力機(jī)制(附pytorch實(shí)現(xiàn))

    【深度學(xué)習(xí)注意力機(jī)制系列】—— SENet注意力機(jī)制(附pytorch實(shí)現(xiàn))

    深度學(xué)習(xí)中的注意力機(jī)制(Attention Mechanism)是一種模仿人類(lèi)視覺(jué)和認(rèn)知系統(tǒng)的方法,它允許神經(jīng)網(wǎng)絡(luò)在處理輸入數(shù)據(jù)時(shí)集中注意力于相關(guān)的部分。通過(guò)引入注意力機(jī)制,神經(jīng)網(wǎng)絡(luò)能夠自動(dòng)地學(xué)習(xí)并選擇性地關(guān)注輸入中的重要信息,提高模型的性能和泛化能力。 卷積神經(jīng)網(wǎng)絡(luò)

    2024年02月14日
    瀏覽(27)
  • 【深度學(xué)習(xí)注意力機(jī)制系列】—— CBAM注意力機(jī)制(附pytorch實(shí)現(xiàn))

    【深度學(xué)習(xí)注意力機(jī)制系列】—— CBAM注意力機(jī)制(附pytorch實(shí)現(xiàn))

    CBAM(Convolutional Block Attention Module) 是一種用于增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)(CNN)性能的注意力機(jī)制模塊。它由Sanghyun Woo等人在2018年的論文[1807.06521] CBAM: Convolutional Block Attention Module (arxiv.org)中提出。CBAM的主要目標(biāo)是 通過(guò)在CNN中引入通道注意力和空間注意力 來(lái)提高模型的感知能力,從

    2024年02月13日
    瀏覽(23)
  • 【深度學(xué)習(xí)注意力機(jī)制系列】—— SKNet注意力機(jī)制(附pytorch實(shí)現(xiàn))

    【深度學(xué)習(xí)注意力機(jī)制系列】—— SKNet注意力機(jī)制(附pytorch實(shí)現(xiàn))

    SKNet(Selective Kernel Network) 是一種用于圖像分類(lèi)和目標(biāo)檢測(cè)任務(wù)的深度神經(jīng)網(wǎng)絡(luò)架構(gòu),其核心創(chuàng)新是 引入了選擇性的多尺度卷積核(Selective Kernel)以及一種新穎的注意力機(jī)制 ,從而在不增加網(wǎng)絡(luò)復(fù)雜性的情況下提升了特征提取的能力。SKNet的設(shè)計(jì)旨在 解決多尺度信息融合的

    2024年02月13日
    瀏覽(44)
  • 【深度學(xué)習(xí)注意力機(jī)制系列】—— ECANet注意力機(jī)制(附pytorch實(shí)現(xiàn))

    【深度學(xué)習(xí)注意力機(jī)制系列】—— ECANet注意力機(jī)制(附pytorch實(shí)現(xiàn))

    ECANet(Efficient Channel Attention Network) 是一種 用于圖像處理任務(wù)的神經(jīng)網(wǎng)絡(luò)架構(gòu),它在保持高效性的同時(shí),有效地捕捉圖像中的通道間關(guān)系,從而提升了特征表示的能力 。ECANet通過(guò)引入通道注意力機(jī)制,以及在卷積層中嵌入該機(jī)制,取得了優(yōu)越的性能。本文將對(duì)ECANet的核心思

    2024年02月13日
    瀏覽(22)
  • 深度學(xué)習(xí)——常見(jiàn)注意力機(jī)制

    深度學(xué)習(xí)——常見(jiàn)注意力機(jī)制

    SENet屬于通道注意力機(jī)制。2017年提出,是imageNet最后的冠軍 SENet采用的方法是對(duì)于特征層賦予權(quán)值。 重點(diǎn)在于如何賦權(quán) 1.將輸入信息的所有通道平均池化。 2.平均池化后進(jìn)行兩次全連接,第一次全連接鏈接的神經(jīng)元較少,第二次全連接神經(jīng)元數(shù)和通道數(shù)一致 3.將Sigmoid的值固定

    2024年02月14日
    瀏覽(30)
  • 深度學(xué)習(xí)(5)---自注意力機(jī)制

    深度學(xué)習(xí)(5)---自注意力機(jī)制

    ?1. 一般情況下在簡(jiǎn)單模型中我們輸入一個(gè)向量,輸出結(jié)果可能是一個(gè)數(shù)值或者一個(gè)類(lèi)別。但是在復(fù)雜的模型中我們一般會(huì)輸入一組向量,那么輸出結(jié)果可能是一組數(shù)值或一組類(lèi)別。 ?2. 一句話、一段語(yǔ)音、一張圖等都可以轉(zhuǎn)換成一組向量。 ?3. 輸入一組向量,一般輸出結(jié)

    2024年01月23日
    瀏覽(24)
  • 【深度學(xué)習(xí)實(shí)驗(yàn)】注意力機(jī)制(一):注意力權(quán)重矩陣可視化(矩陣熱圖heatmap)

    【深度學(xué)習(xí)實(shí)驗(yàn)】注意力機(jī)制(一):注意力權(quán)重矩陣可視化(矩陣熱圖heatmap)

    ? ?? 注意力機(jī)制 作為一種模擬人腦信息處理的關(guān)鍵工具,在深度學(xué)習(xí)領(lǐng)域中得到了廣泛應(yīng)用。本系列實(shí)驗(yàn)旨在通過(guò)理論分析和代碼演示,深入了解注意力機(jī)制的原理、類(lèi)型及其在模型中的實(shí)際應(yīng)用。 本文將介紹將介紹 注意力權(quán)重矩陣可視化 (矩陣熱圖heatmap) ??本系

    2024年02月05日
    瀏覽(30)
  • 深度學(xué)習(xí)CV方向?qū)W習(xí)筆記5 —— 通道注意力機(jī)制

    深度學(xué)習(xí)CV方向?qū)W習(xí)筆記5 —— 通道注意力機(jī)制

    目錄 1 問(wèn)題:MobileNet 中的注意力機(jī)制 2 SE 通道注意力機(jī)制 2.1 SE 通道注意力機(jī)制的定義與作用 2.2 SE過(guò)程: Squeeze + Excitation + Scale 3 其他通道注意力機(jī)制 4 參考鏈接 問(wèn)題描述: MobileNet 中使用了通道注意力機(jī)制,是如何實(shí)現(xiàn)的?CNN中還有哪些 Attention? 2.1 SE 通道注意力機(jī)制的定義

    2024年02月08日
    瀏覽(20)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包