国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【深度學(xué)習(xí)注意力機(jī)制系列】—— SENet注意力機(jī)制(附pytorch實(shí)現(xiàn))

這篇具有很好參考價(jià)值的文章主要介紹了【深度學(xué)習(xí)注意力機(jī)制系列】—— SENet注意力機(jī)制(附pytorch實(shí)現(xiàn))。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

深度學(xué)習(xí)中的注意力機(jī)制(Attention Mechanism)是一種模仿人類(lèi)視覺(jué)和認(rèn)知系統(tǒng)的方法,它允許神經(jīng)網(wǎng)絡(luò)在處理輸入數(shù)據(jù)時(shí)集中注意力于相關(guān)的部分。通過(guò)引入注意力機(jī)制,神經(jīng)網(wǎng)絡(luò)能夠自動(dòng)地學(xué)習(xí)并選擇性地關(guān)注輸入中的重要信息,提高模型的性能和泛化能力。

卷積神經(jīng)網(wǎng)絡(luò)引入的注意力機(jī)制主要有以下幾種方法:

  • 在空間維度上增加注意力機(jī)制
  • 在通道維度上增加注意力機(jī)制
  • 在兩者的混合維度上增加注意力機(jī)制

我們將在本系列對(duì)多種注意力機(jī)制進(jìn)行講解,并使用pytorch進(jìn)行實(shí)現(xiàn),今天我們講解SENet注意力機(jī)制

SENet(Squeeze-and-Excitation Networks)注意力機(jī)制通道維度上引入注意力機(jī)制,其核心思想在于通過(guò)網(wǎng)絡(luò)根據(jù)loss去學(xué)習(xí)特征權(quán)重,使得有效的feature map權(quán)重大,無(wú)效或效果小的feature map權(quán)重小的方式訓(xùn)練模型達(dá)到更好的結(jié)果。SE block嵌在原有的一些分類(lèi)網(wǎng)絡(luò)中不可避免地增加了一些參數(shù)和計(jì)算量,但是在效果面前還是可以接受的 。Sequeeze-and-Excitation(SE) block并不是一個(gè)完整的網(wǎng)絡(luò)結(jié)構(gòu),而是一個(gè)子結(jié)構(gòu),可以嵌到其他分類(lèi)或檢測(cè)模型中。

【深度學(xué)習(xí)注意力機(jī)制系列】—— SENet注意力機(jī)制(附pytorch實(shí)現(xiàn)),深度學(xué)習(xí),# PyTorch,深度學(xué)習(xí),pytorch,人工智能,python

以上是SENet的結(jié)構(gòu)示意圖, 其關(guān)鍵操作為squeeze和excitation. 通過(guò)自動(dòng)學(xué)習(xí)獲得特征圖在每個(gè)通道上的重要程度,以此為不同通道賦予不同的權(quán)重,提升有用通道的貢獻(xiàn)程度.

實(shí)現(xiàn)機(jī)制:

  1. Squeeze: 通過(guò)全劇平均池化層,將每個(gè)通道大的二維特征(h*w)壓縮為一個(gè)實(shí)數(shù),維度變化: (C, H, W) -> (C, 1, 1)
  2. Excitation: 給予每個(gè)通道的一個(gè)特征權(quán)重, 然后經(jīng)過(guò)兩次全連接層的信息整合提取,構(gòu)建通道間的自相關(guān)性,輸出權(quán)重?cái)?shù)目和特征圖通道數(shù)一致, 維度變化: (C, 1, 1) -> (C, 1, 1)
  3. Scale: 將歸一化后的權(quán)重加權(quán)道每個(gè)通道的特征上, 論文中使用的是相乘加權(quán), 維度變化: (C, H, W) * (C, 1, 1) -> (C, H, W)

pytorch實(shí)現(xiàn):文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-634674.html

class SENet(nn.Module):
    def __init__(self, in_channels, ratio=16):
        super(SENet, self).__init__()
        self.in_channels = in_channels
        self.fgp = nn.AdaptiveAvgPool2d((1, 1))
        self.fc1 = nn.Linear(self.in_channels, int(self.in_channels / ratio), bias=False)
        self.act1 = nn.ReLU()
        self.fc2 = nn.Linear(int(self.in_channels / ratio), self.in_channels, bias=False)
        self.act2 = nn.Sigmoid()

    def forward(self, x):
        b, c, h, w = x.size()
        output = self.fgp(x)
        output = output.view(b, c)
        output = self.fc1(output)
        output = self.act1(output)
        output = self.fc2(output)
        output = self.act2(output)
        output = output.view(b, c, 1, 1)
        return torch.multiply(x, output)

到了這里,關(guān)于【深度學(xué)習(xí)注意力機(jī)制系列】—— SENet注意力機(jī)制(附pytorch實(shí)現(xiàn))的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Pytorch圖像處理注意力機(jī)制SENet CBAM ECA模塊解讀

    Pytorch圖像處理注意力機(jī)制SENet CBAM ECA模塊解讀

    目錄 1. 注意力機(jī)制 1.1 SENet(Squeeze-and-Excitation Network) 1.1.1 SENet原理 ?1.1.2? SENet代碼示例 1.2?CBAM(Convolutional Block Attention Module) 1.2.1 CBAM原理 ?1.2.2 CBAM代碼示例 1.3?ECA(Efficient Channel Attention) 1.3.1 ECA原理 ?1.3.2 ECA代碼示例 ? 注意力機(jī)制 最初是為了解決自然語(yǔ)言處理(NLP)任

    2024年02月15日
    瀏覽(21)
  • 點(diǎn)云深度學(xué)習(xí)系列博客(五): 注意力機(jī)制原理概述

    點(diǎn)云深度學(xué)習(xí)系列博客(五): 注意力機(jī)制原理概述

    目錄 1. 注意力機(jī)制由來(lái) 2. Nadaraya-Watson核回歸 3. 多頭注意力與自注意力 4. Transformer模型 Reference 隨著Transformer模型在NLP,CV甚至CG領(lǐng)域的流行,注意力機(jī)制(Attention Mechanism)被越來(lái)越多的學(xué)者所注意,將其引入各種深度學(xué)習(xí)任務(wù)中,以提升性能。清華大學(xué)胡世民教授團(tuán)隊(duì)近期發(fā)

    2024年02月10日
    瀏覽(26)
  • [ 注意力機(jī)制 ] 經(jīng)典網(wǎng)絡(luò)模型1——SENet 詳解與復(fù)現(xiàn)

    [ 注意力機(jī)制 ] 經(jīng)典網(wǎng)絡(luò)模型1——SENet 詳解與復(fù)現(xiàn)

    ?? Author :Horizon Max ? 編程技巧篇 :各種操作小結(jié) ?? 機(jī)器視覺(jué)篇 :會(huì)變魔術(shù) OpenCV ?? 深度學(xué)習(xí)篇 :簡(jiǎn)單入門(mén) PyTorch ?? 神經(jīng)網(wǎng)絡(luò)篇 :經(jīng)典網(wǎng)絡(luò)模型 ?? 算法篇 :再忙也別忘了 LeetCode Squeeze :擠壓 ? ? Excitation :激勵(lì) ; Squeeze-and-Excitation Networks 簡(jiǎn)稱(chēng) SENet ,由 Momenta 和

    2024年01月20日
    瀏覽(44)
  • YOLO算法改進(jìn)5【中階改進(jìn)篇】:添加SENet注意力機(jī)制

    YOLO算法改進(jìn)5【中階改進(jìn)篇】:添加SENet注意力機(jī)制

    SE-Net 是 ImageNet 2017(ImageNet 收官賽)的冠軍模型,是由WMW團(tuán)隊(duì)發(fā)布。具有復(fù)雜度低,參數(shù)少和計(jì)算量小的優(yōu)點(diǎn)。且SENet 思路很簡(jiǎn)單,很容易擴(kuò)展到已有網(wǎng)絡(luò)結(jié)構(gòu)如 Inception 和 ResNet 中。 我們可以看到,已經(jīng)有很多工作在空間維度上來(lái)提升網(wǎng)絡(luò)的性能。那么很自然想到,網(wǎng)絡(luò)是

    2024年02月06日
    瀏覽(19)
  • 【深度學(xué)習(xí)】注意力機(jī)制

    注意力機(jī)制(Attention Mechanism)是一種在計(jì)算機(jī)科學(xué)和機(jī)器學(xué)習(xí)中常用的技術(shù),可以使模型在處理序列數(shù)據(jù)時(shí)更加準(zhǔn)確和有效。在傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)中,每個(gè)神經(jīng)元的輸出只依賴(lài)于前一層的所有神經(jīng)元的輸出,而在注意力機(jī)制中,每個(gè)神經(jīng)元的輸出不僅僅取決于前一層的所有神經(jīng)

    2024年02月02日
    瀏覽(39)
  • 深度學(xué)習(xí)——常見(jiàn)注意力機(jī)制

    深度學(xué)習(xí)——常見(jiàn)注意力機(jī)制

    SENet屬于通道注意力機(jī)制。2017年提出,是imageNet最后的冠軍 SENet采用的方法是對(duì)于特征層賦予權(quán)值。 重點(diǎn)在于如何賦權(quán) 1.將輸入信息的所有通道平均池化。 2.平均池化后進(jìn)行兩次全連接,第一次全連接鏈接的神經(jīng)元較少,第二次全連接神經(jīng)元數(shù)和通道數(shù)一致 3.將Sigmoid的值固定

    2024年02月14日
    瀏覽(30)
  • 改進(jìn)版ASPP:ASPP加入通道注意力機(jī)制(SENET),即SE_ASPP

    改進(jìn)版ASPP:ASPP加入通道注意力機(jī)制(SENET),即SE_ASPP

    空洞空間卷積池化金字塔(atrous spatial pyramid pooling (ASPP))通過(guò)對(duì)于輸入的特征以不同的采樣率進(jìn)行采樣,即從不同尺度提取輸入特征,然后將所獲取的特征進(jìn)行融合,得到最終的特征提取結(jié)果。 通道注意力機(jī)制(SENET)將尺度為HXWXC尺度大小的特征圖通過(guò)全局平均池化進(jìn)行壓

    2024年02月15日
    瀏覽(26)
  • 【動(dòng)手深度學(xué)習(xí)-筆記】注意力機(jī)制(四)自注意力、交叉注意力和位置編碼

    【動(dòng)手深度學(xué)習(xí)-筆記】注意力機(jī)制(四)自注意力、交叉注意力和位置編碼

    緊接上回:【動(dòng)手深度學(xué)習(xí)-筆記】注意力機(jī)制(三)多頭注意力 在注意力機(jī)制下,我們將詞元序列輸入注意力匯聚中,以便同一組詞元同時(shí)充當(dāng)查詢(xún)、鍵和值。 具體來(lái)說(shuō),每個(gè)查詢(xún)都會(huì)關(guān)注所有的鍵-值對(duì)并生成一個(gè)注意力輸出。 像這樣的,查詢(xún)、鍵和值來(lái)自同一組輸入的

    2024年01月16日
    瀏覽(76)
  • 深度學(xué)習(xí)(5)---自注意力機(jī)制

    深度學(xué)習(xí)(5)---自注意力機(jī)制

    ?1. 一般情況下在簡(jiǎn)單模型中我們輸入一個(gè)向量,輸出結(jié)果可能是一個(gè)數(shù)值或者一個(gè)類(lèi)別。但是在復(fù)雜的模型中我們一般會(huì)輸入一組向量,那么輸出結(jié)果可能是一組數(shù)值或一組類(lèi)別。 ?2. 一句話(huà)、一段語(yǔ)音、一張圖等都可以轉(zhuǎn)換成一組向量。 ?3. 輸入一組向量,一般輸出結(jié)

    2024年01月23日
    瀏覽(23)
  • 【深度學(xué)習(xí)實(shí)驗(yàn)】注意力機(jī)制(一):注意力權(quán)重矩陣可視化(矩陣熱圖heatmap)

    【深度學(xué)習(xí)實(shí)驗(yàn)】注意力機(jī)制(一):注意力權(quán)重矩陣可視化(矩陣熱圖heatmap)

    ? ?? 注意力機(jī)制 作為一種模擬人腦信息處理的關(guān)鍵工具,在深度學(xué)習(xí)領(lǐng)域中得到了廣泛應(yīng)用。本系列實(shí)驗(yàn)旨在通過(guò)理論分析和代碼演示,深入了解注意力機(jī)制的原理、類(lèi)型及其在模型中的實(shí)際應(yīng)用。 本文將介紹將介紹 注意力權(quán)重矩陣可視化 (矩陣熱圖heatmap) ??本系

    2024年02月05日
    瀏覽(30)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包