国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

全局平均池化(Global Average Pooling)

這篇具有很好參考價(jià)值的文章主要介紹了全局平均池化(Global Average Pooling)。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

最近看論文,看到了全局平均池化,之間見過這東西,但是沒有仔細(xì)了解,今天學(xué)習(xí)一下,并記錄下來,方便以后查閱。

概念概述

出處:Lin M, Chen Q, Yan S. Network in network[J]. arXiv preprint arXiv:1312.4400, 2013.

定義:將特征圖所有像素值相加求平局,得到一個(gè)數(shù)值,即用該數(shù)值表示對應(yīng)特征圖。

目的:替代全連接層

效果:減少參數(shù)數(shù)量,減少計(jì)算量,減少過擬合

思路:如下圖所示。假設(shè)最終分成10類,則最后卷積層應(yīng)該包含10個(gè)濾波器(即輸出10個(gè)特征圖),然后按照全局池化平均定義,分別對每個(gè)特征圖,累加所有像素值并求平均,最后得到10個(gè)數(shù)值,將這10個(gè)數(shù)值輸入到softmax層中,得到10個(gè)概率值,即這張圖片屬于每個(gè)類別的概率值。

全局平均池化,深度學(xué)習(xí),深度學(xué)習(xí),人工智能
全局平均池化,深度學(xué)習(xí),深度學(xué)習(xí),人工智能

原文這樣描述全局平均值池化:

全局平均池化,深度學(xué)習(xí),深度學(xué)習(xí),人工智能

作用:如果要預(yù)測K個(gè)類別,在卷積特征抽取部分的最后一層卷積層,就會(huì)生成K個(gè)特征圖,然后通過全局平均池化就可以得到 K個(gè)1×1的特征圖,將這些1×1的特征圖輸入到softmax layer之后,每一個(gè)輸出結(jié)果代表著這K個(gè)類別的概率(或置信度 confidence),起到取代全連接層的效果。
優(yōu)點(diǎn)

  • 和全連接層相比,使用全局平均池化技術(shù),對于建立特征圖和類別之間的關(guān)系,是一種更樸素的卷積結(jié)構(gòu)選擇。
  • 全局平均池化層不需要參數(shù),避免在該層產(chǎn)生過擬合。
  • 全局平均池化對空間信息進(jìn)行求和,對輸入的空間變化的魯棒性更強(qiáng)。

torch實(shí)現(xiàn)

import torch
a = torch.rand([4,3,4,4])
a.size()

輸出:

torch.Size([4, 3, 4, 4])
b = torch.nn.functional.adaptive_avg_pool2d(a, (1,1))  # 自適應(yīng)池化,指定池化輸出尺寸為 1 * 1
b.size()

輸出:

torch.Size([4, 3, 1, 1])

參考資料

Global Average Pooling Layers for Object Localization

Comparison of the fully connected layer and global average pooling layer.

全局平均池化(Global Average Pooling)

pytorch 學(xué)習(xí) | 全局平均池化 global average pooling 實(shí)現(xiàn) 和作用優(yōu)點(diǎn)解析文章來源地址http://www.zghlxwxcb.cn/news/detail-793777.html

到了這里,關(guān)于全局平均池化(Global Average Pooling)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 如何解決linux系統(tǒng)平均負(fù)載高(load average)

    如何解決linux系統(tǒng)平均負(fù)載高(load average)

    問題現(xiàn)象 兩個(gè)案例都是:系統(tǒng)平均負(fù)載高,但cpu,內(nèi)存,磁盤io都正常 什么是系統(tǒng)平均負(fù)載 平均負(fù)載是指單位時(shí)間內(nèi),系統(tǒng)處于 可運(yùn)行狀態(tài) 和 不可中斷狀態(tài) 的平均進(jìn)程數(shù),也就是 平均活躍進(jìn)程數(shù) ,它和CPU使用率并沒有直接關(guān)系。 可運(yùn)行狀態(tài)的進(jìn)程,是指正在使用CPU或者

    2023年04月08日
    瀏覽(20)
  • MATLAB知識(shí)點(diǎn):mean : 計(jì)算平均值(mean/average value)

    MATLAB知識(shí)點(diǎn):mean : 計(jì)算平均值(mean/average value)

    ?講解視頻:可以在bilibili搜索《MATLAB教程新手入門篇——數(shù)學(xué)建模清風(fēng)主講》。? MATLAB教程新手入門篇(數(shù)學(xué)建模清風(fēng)主講,適合零基礎(chǔ)同學(xué)觀看)_嗶哩嗶哩_bilibili 節(jié)選自第3章 3.4.1節(jié) 假設(shè)向量?,即向量y有n個(gè)元素,那么它的平均值等于. 在MATLAB中,mean函數(shù)可以用來計(jì)算

    2024年04月09日
    瀏覽(25)
  • 【深度學(xué)習(xí)】神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)--卷積和池化的作用

    【深度學(xué)習(xí)】神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)--卷積和池化的作用

    深度學(xué)習(xí)通常指訓(xùn)練大型深度的神經(jīng)網(wǎng)絡(luò)的過程。 與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)模型相比,深度學(xué)習(xí)模型在結(jié)構(gòu)上與之非常相似; 不同的是,深度學(xué)習(xí)模型的“深度”更大,“深度”的體現(xiàn)就是神經(jīng)網(wǎng)絡(luò)層數(shù)多,神經(jīng)網(wǎng)絡(luò)每一層的結(jié)點(diǎn)數(shù)多。 本章介紹兩種深度神經(jīng)網(wǎng)絡(luò)——卷積神經(jīng)網(wǎng)

    2024年02月16日
    瀏覽(25)
  • 第二章第14節(jié):EXCEL :計(jì)算Excel求平均函數(shù)函數(shù)AVERAGE 、AVERAGEIF、AVERAGEIFS函數(shù)

    第二章第14節(jié):EXCEL :計(jì)算Excel求平均函數(shù)函數(shù)AVERAGE 、AVERAGEIF、AVERAGEIFS函數(shù)

    它們分別是AVERAGE 、AVERAGEIF、AVERAGEIFS函數(shù), 它們的區(qū)別是:AVERAGE是直接求平均值; AVERAGEIF單條件求平均值; AVERAGEIFS多個(gè)條件求平均值。 求出所有參數(shù)的算術(shù)平均值。如果某個(gè)單元格是空的或包含文本,它將不用于計(jì)算平均數(shù)。如果單元格數(shù)值為0,將參于計(jì)算平均數(shù) 。 【

    2024年01月23日
    瀏覽(24)
  • linux top命令中 cpu 利用率/mem 使用率與load average平均負(fù)載計(jì)算方式

    top 命令是 Linux 上一個(gè)常用的系統(tǒng)監(jiān)控工具,它經(jīng)常用來監(jiān)控 Linux 的系統(tǒng)狀態(tài),是常用的性能分析工具,能夠顯示較全的系統(tǒng)資源信息,包括系統(tǒng)負(fù)載,CPU 利用分布情況,內(nèi)存使用,進(jìn)程資源占用情況等。 如下示例: 這里主要看進(jìn)程的 CPU%, MEM% 和 load averge 字段。 該字段指

    2024年02月03日
    瀏覽(27)
  • 機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——注意力提示、注意力池化(核回歸)

    機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——注意力提示、注意力池化(核回歸)

    ?????作者簡介:一位即將上大四,正專攻機(jī)器學(xué)習(xí)的保研er ??上期文章:機(jī)器學(xué)習(xí)深度學(xué)習(xí)——常見循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)(RNN、LSTM、GRU) ??訂閱專欄:機(jī)器學(xué)習(xí)深度學(xué)習(xí) 希望文章對你們有所幫助 之前講過的CNN和RNN模型,容易發(fā)現(xiàn)的一個(gè)點(diǎn)是,他們并沒有刻意的、主觀的

    2024年02月13日
    瀏覽(21)
  • 深度學(xué)習(xí)基本理論下篇:(梯度下降/卷積/池化/歸一化/AlexNet/歸一化/Dropout/卷積核)、深度學(xué)習(xí)面試

    深度學(xué)習(xí)基本理論下篇:(梯度下降/卷積/池化/歸一化/AlexNet/歸一化/Dropout/卷積核)、深度學(xué)習(xí)面試

    深度學(xué)習(xí)面試必備 1:(MLP/激活函數(shù)/softmax/損失函數(shù)/梯度/梯度下降/學(xué)習(xí)率/反向傳播/深度學(xué)習(xí)面試 深度學(xué)習(xí)面試必備 2:(梯度下降/卷積/池化/歸一化/AlexNet/歸一化/Dropout/卷積核/深度學(xué)習(xí)面試 深度學(xué)習(xí)面試必備 3 :物體檢測(Anchor base/NMS/softmax/損失函數(shù)/BCE/CE/zip) Momentum、

    2024年02月12日
    瀏覽(23)
  • 深度學(xué)習(xí)記錄--指數(shù)加權(quán)平均

    深度學(xué)習(xí)記錄--指數(shù)加權(quán)平均

    如何對雜亂的數(shù)據(jù)進(jìn)行擬合? 通過指數(shù)加權(quán)平均可以把數(shù)據(jù)圖近似擬合成一條曲線 公式: 其中表示第t個(gè)平均數(shù),表示第t-1個(gè)平均數(shù),表示第t個(gè)數(shù)據(jù),表示變化參數(shù) 下圖為擬合結(jié)果() 當(dāng)參數(shù)變化時(shí),擬合結(jié)果也會(huì)發(fā)生變化 例子: ?時(shí),近似取10個(gè)數(shù)據(jù)平均值(紅色曲線) ?時(shí)

    2024年01月23日
    瀏覽(15)
  • Pytorch平均池化nn.AvgPool2d()使用記錄

    Pytorch平均池化nn.AvgPool2d()使用記錄

    【pytorch官方文檔】 :https://pytorch.org/docs/stable/generated/torch.nn.AvgPool2d.html?highlight=avgpool2d#torch.nn.AvgPool2d 在由多通道組成的輸入特征中進(jìn)行2D平均池化計(jì)算 假設(shè)輸入特征為S,輸出特征為D 情況一 ceil_mode=False, count_include_pad=True(計(jì)算時(shí)包含零填充) 計(jì)算過程: 輸出形狀= floor[(3 - 3

    2023年04月19日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包