国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深度學(xué)習(xí):BatchNorm、LayerNorm、InstanceNorm、GroupNorm和SwitchableNorm的理解

這篇具有很好參考價(jià)值的文章主要介紹了深度學(xué)習(xí):BatchNorm、LayerNorm、InstanceNorm、GroupNorm和SwitchableNorm的理解。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

深度學(xué)習(xí)中的Norm

在深度學(xué)習(xí)中會(huì)經(jīng)常遇到BatchNorm、LayerNorm、InstanceNorm和GroupNorm,四者區(qū)別如下:
深度學(xué)習(xí):BatchNorm、LayerNorm、InstanceNorm、GroupNorm和SwitchableNorm的理解,深度學(xué)習(xí),深度學(xué)習(xí),人工智能,Normalization
除此之外還有SwitchableNorm的方法,下面會(huì)逐一進(jìn)行介紹。

BatchNorm

BatchNorm 的處理對(duì)象是對(duì)一批樣本同一個(gè)通道特征,BatchNorm 是對(duì)這批樣本的同一維度特征計(jì)算均值和方差做歸一化,BatchNorm在CV領(lǐng)域應(yīng)用較多。

BatchNorm的好處有以下三點(diǎn):
1、提高梯度在網(wǎng)絡(luò)中的流動(dòng)。Normalization能夠使特征全部縮放到[0,1],這樣在反向傳播時(shí)候的梯度都是在1左右,避免了梯度消失現(xiàn)象。
2、提升學(xué)習(xí)速率。歸一化后的數(shù)據(jù)能夠快速的達(dá)到收斂。
3、減少模型訓(xùn)練對(duì)初始化的依賴。

LayerNorm

LayerNorm 的處理對(duì)象是每單個(gè)樣本所有通道特征,LayerNorm 是對(duì)這單個(gè)樣本的所有維度特征計(jì)算均值和方差做歸一化。LayerNorm在NLP領(lǐng)域應(yīng)用較多。

由于不同維度的特征量綱往往不同,那么我們?yōu)槭裁催€要使用LayerNorm呢?因?yàn)镹LP領(lǐng)域中,LayerNorm更為合適。
如果我們將一批文本組成一個(gè)batch,那么BatchNorm是對(duì)每句話的同一維特征(同一個(gè)位置)進(jìn)行操作,而我們理解文本是一句話一句話地閱讀,這不符合NLP的規(guī)律。
而LayerNorm則是針對(duì)一句話進(jìn)行歸一化的,且LayerNorm一般用在第三維度,如[batchsize, seq_len, dims]中的dims,一般為詞向量的維度等等,這一維度各個(gè)特征的量綱應(yīng)該相同。因此也不會(huì)遇到上面因?yàn)樘卣鞯牧烤V不同而導(dǎo)致的歸一化縮放問(wèn)題。

InstanceNorm

InstanceNorm的處理對(duì)象是每單個(gè)樣本同一個(gè)通道特征,InstanceNorm是對(duì)單個(gè)樣本同一個(gè)維度特征計(jì)算均值和方差做歸一化,InstanceNorm在風(fēng)格化遷移應(yīng)用較多。

因?yàn)樵趫D像風(fēng)格化中,生成結(jié)果主要依賴于某個(gè)圖像實(shí)例,所以對(duì)整個(gè)batch歸一化不適合圖像風(fēng)格化中,因而對(duì)HW做歸一化??梢约铀倌P褪諗?,并且保持每個(gè)圖像實(shí)例之間的獨(dú)立。

GroupNorm

GroupNorm的處理對(duì)象是每單個(gè)樣本同一組通道特征,GroupNorm是對(duì)單個(gè)樣本同一組維度特征計(jì)算均值和方差做歸一化。

SwitchableNorm

SwitchableNorm是將BatchNorm、LayerNorm、InstanceNorm結(jié)合,賦予不同的權(quán)重,讓網(wǎng)絡(luò)自適應(yīng)地學(xué)習(xí)歸一化層。

附錄

Pytorch官網(wǎng)——Normalization Layers文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-613854.html

到了這里,關(guān)于深度學(xué)習(xí):BatchNorm、LayerNorm、InstanceNorm、GroupNorm和SwitchableNorm的理解的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • BatchNorm原理解析

    BatchNorm 要解決的問(wèn)題 我們都知道,深度學(xué)習(xí)的話尤其是在CV中,都需要對(duì) 數(shù)據(jù)進(jìn)行歸一化處理 ,因?yàn)樯疃葘W(xué)習(xí)網(wǎng)絡(luò)主要就是為了學(xué)習(xí)訓(xùn)練數(shù)據(jù)的分布,并在測(cè)試集中得到更好的泛化效果。但是我們 每一個(gè) batch 輸入的數(shù)據(jù)都具有不同的分布 ,顯然會(huì)給網(wǎng)絡(luò)訓(xùn)練帶來(lái)困難。此

    2024年02月13日
    瀏覽(14)
  • PyTorch BatchNorm2d詳解

    PyTorch BatchNorm2d詳解

    通常和卷積層,激活函數(shù)一起使用

    2024年02月15日
    瀏覽(13)
  • 【CNN記錄】pytorch中BatchNorm2d

    【CNN記錄】pytorch中BatchNorm2d

    torch.nn.BatchNorm2d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True, device=None, dtype=None) 功能 :對(duì)輸入的四維數(shù)組進(jìn)行批量標(biāo)準(zhǔn)化處理(歸一化) 計(jì)算公式如下: 對(duì)于所有的batch中樣本的同一個(gè)channel的數(shù)據(jù)元素進(jìn)行標(biāo)準(zhǔn)化處理,即如果有C個(gè)通道,無(wú)論batch中有多少個(gè)樣

    2024年02月16日
    瀏覽(13)
  • python 理解BN、LN、IN、GN歸一化、分析torch.nn.LayerNorm()和torch.var()工作原理

    python 理解BN、LN、IN、GN歸一化、分析torch.nn.LayerNorm()和torch.var()工作原理

    目錄 ? 前言: 簡(jiǎn)言之BN、LN、IN、GN等歸一化的區(qū)別: 批量歸一化(Batch Normalization,BN) 優(yōu)點(diǎn) 缺點(diǎn) 計(jì)算過(guò)程 層歸一化(Layer Normalization,LN) 優(yōu)點(diǎn)? 計(jì)算過(guò)程 總結(jié) 分析torch.nn.LayerNorm()工作原理 分析torch.var()工作原理 torch.var()函數(shù)? 參數(shù) 參數(shù) 重點(diǎn) 最近在學(xué)習(xí)Vit(Vision Trans

    2023年04月16日
    瀏覽(18)
  • 深入理解Transformer,兼談MHSA(多頭自注意力)、Cross-Attention(交叉注意力)、LayerNorm、FFN、位置編碼

    深入理解Transformer,兼談MHSA(多頭自注意力)、Cross-Attention(交叉注意力)、LayerNorm、FFN、位置編碼

    Transformer其實(shí)不是完全的Self-Attention(SA,自注意力)結(jié)構(gòu),還帶有Cross-Attention(CA,交叉注意力)、殘差連接、LayerNorm、類似1維卷積的Position-wise Feed-Forward Networks(FFN)、MLP和Positional Encoding(位置編碼)等 本文涵蓋Transformer所采用的MHSA(多頭自注意力)、LayerNorm、FFN、位置編

    2024年04月12日
    瀏覽(51)
  • 【深度學(xué)習(xí)筆記】深度學(xué)習(xí)框架

    【深度學(xué)習(xí)筆記】深度學(xué)習(xí)框架

    本專欄是網(wǎng)易云課堂人工智能課程《神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)》的學(xué)習(xí)筆記,視頻由網(wǎng)易云課堂與 deeplearning.ai 聯(lián)合出品,主講人是吳恩達(dá) Andrew Ng 教授。感興趣的網(wǎng)友可以觀看網(wǎng)易云課堂的視頻進(jìn)行深入學(xué)習(xí),視頻的鏈接如下: 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí) - 網(wǎng)易云課堂 也歡迎對(duì)神經(jīng)網(wǎng)

    2024年02月14日
    瀏覽(20)
  • 《動(dòng)手學(xué)深度學(xué)習(xí)》——深度學(xué)習(xí)計(jì)算

    參考資料: 5. 深度學(xué)習(xí)計(jì)算 — 動(dòng)手學(xué)深度學(xué)習(xí) 2.0.0 documentation (d2l.ai) 為了實(shí)現(xiàn)這些復(fù)雜的網(wǎng)絡(luò),我們引入了神經(jīng)網(wǎng)絡(luò)塊的概念。塊(block)可以描述單個(gè)層、由多個(gè)層組成的組件或整個(gè)模型本身。 從編程的角度來(lái)看,塊由類(class)表示。它的任何子類都必須定義一個(gè)將其

    2024年02月12日
    瀏覽(23)
  • 【深度學(xué)習(xí)】第一門(mén)課 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí) Week 1 深度學(xué)習(xí)概論

    【深度學(xué)習(xí)】第一門(mén)課 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí) Week 1 深度學(xué)習(xí)概論

    ??Write In Front?? ??個(gè)人主頁(yè):令夏二十三 ??歡迎各位→點(diǎn)贊?? + 收藏?? + 留言?? ??系列專欄:深度學(xué)習(xí) ??總結(jié):希望你看完之后,能對(duì)你有所幫助,不足請(qǐng)指正!共同學(xué)習(xí)交流 ?? 1.1 歡迎來(lái)到深度學(xué)習(xí) 1. 為什么要學(xué)深度學(xué)習(xí)? 2. 我們將學(xué)習(xí)到哪些內(nèi)容? 1.2 什么是

    2024年02月04日
    瀏覽(24)
  • 李沐《動(dòng)手學(xué)深度學(xué)習(xí)》深度學(xué)習(xí)計(jì)算

    李沐《動(dòng)手學(xué)深度學(xué)習(xí)》深度學(xué)習(xí)計(jì)算

    李沐《動(dòng)手學(xué)深度學(xué)習(xí)》預(yù)備知識(shí) 張量操作及數(shù)據(jù)處理 李沐《動(dòng)手學(xué)深度學(xué)習(xí)》預(yù)備知識(shí) 線性代數(shù)及微積分 李沐《動(dòng)手學(xué)深度學(xué)習(xí)》線性神經(jīng)網(wǎng)絡(luò) 線性回歸 李沐《動(dòng)手學(xué)深度學(xué)習(xí)》線性神經(jīng)網(wǎng)絡(luò) softmax回歸 李沐《動(dòng)手學(xué)深度學(xué)習(xí)》多層感知機(jī) 模型概念和代碼實(shí)現(xiàn) 李沐《

    2024年01月22日
    瀏覽(17)
  • 【Python深度學(xué)習(xí)】深度學(xué)習(xí)入門(mén)介紹

    ????????深度學(xué)習(xí)是人工智能領(lǐng)域中最受關(guān)注和研究的子領(lǐng)域之一,它在 計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理、語(yǔ)音識(shí)別、推薦系統(tǒng)等 各個(gè)領(lǐng)域都有廣泛的應(yīng)用。本文將詳細(xì)介紹深度學(xué)習(xí)的發(fā)展歷史、不同類型、應(yīng)用領(lǐng)域以及未來(lái)發(fā)展前景。 ????????深度學(xué)習(xí)的起源可以追溯

    2024年02月07日
    瀏覽(19)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包