国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【Python機(jī)器學(xué)習(xí)】卷積神經(jīng)網(wǎng)絡(luò)卷積層、池化層、Flatten層、批標(biāo)準(zhǔn)化層的講解(圖文解釋)

這篇具有很好參考價值的文章主要介紹了【Python機(jī)器學(xué)習(xí)】卷積神經(jīng)網(wǎng)絡(luò)卷積層、池化層、Flatten層、批標(biāo)準(zhǔn)化層的講解(圖文解釋)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)在提出之初被成功應(yīng)用于手寫字符圖像識別,2012年的AlexNet網(wǎng)絡(luò)在圖像分類任務(wù)中取得成功,此后,卷積神經(jīng)網(wǎng)絡(luò)發(fā)展迅速,現(xiàn)在已經(jīng)被廣泛應(yīng)用于圖形、圖像、語音識別等領(lǐng)域。

圖片的像素數(shù)往往非常大,如果用多層全連接網(wǎng)絡(luò)來處理,則參數(shù)數(shù)量將大到難以有效訓(xùn)練的地步。受貓腦研究的啟發(fā),卷積神經(jīng)網(wǎng)絡(luò)在多層全連接網(wǎng)絡(luò)的基礎(chǔ)上進(jìn)行了改進(jìn),它在不減少層數(shù)的前提下有效提升了訓(xùn)練速度。卷積神經(jīng)網(wǎng)絡(luò)在多個研究領(lǐng)域都取得了成功,特別是在與圖形有關(guān)的分類任務(wù)中。

卷積層和池化層是卷積神經(jīng)網(wǎng)絡(luò)的核心組成,它們和全連接層可以組合成很深層次的網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)還可以按需要添加用來抑制過擬合的Dropout層、拉平多維數(shù)據(jù)的Flatten層、加快收斂和抑制梯度消散的BatchNormalization層等等。

卷積層

二維卷積層Conv2d的輸入是:input_shape=(28,28,1)。這與前文討論的所有機(jī)器學(xué)習(xí)模型的輸入都不同,前文模型的輸入是一維向量,該一維向量要么是經(jīng)特征工程提取出來的特征,要么是被拉成一維的圖像數(shù)據(jù)。而這里卷積層的輸入是圖片數(shù)據(jù)組成的多維數(shù)據(jù)。

MNIST圖片中,只有一種顏色,通常稱灰色亮度。MNIST圖片的維度是(28,28,1),前面兩維存儲28×28個像素點(diǎn)的坐標(biāo)位置,后面1維表示像素點(diǎn)的灰色亮度值,因此它是28×28的單通道數(shù)據(jù)。

從數(shù)學(xué)上來講,卷積是一種積分變換。在深度學(xué)習(xí)中,它用來做數(shù)據(jù)的卷積運(yùn)算,在圖像處理領(lǐng)域取得了非常好的效果。

單通道數(shù)據(jù)上的卷積運(yùn)算包括待處理張量I、卷積核K和輸出張量S三個組成部分,它們的大小分別為4×4、3×3和2×2。

記待處理的張量為I,卷積核為K,每一次卷積運(yùn)算可表述為:

【Python機(jī)器學(xué)習(xí)】卷積神經(jīng)網(wǎng)絡(luò)卷積層、池化層、Flatten層、批標(biāo)準(zhǔn)化層的講解(圖文解釋)

式中,I?K表示卷積運(yùn)算,M和N分別表示卷積核的長度和寬度。i,j是待處理張量I的坐標(biāo)位置,也是卷積核左上角對齊的位置

記待處理張量I的長度和寬度為P和Q,則輸出張量S的長度P^′和Q^′寬度分別為:

?【Python機(jī)器學(xué)習(xí)】卷積神經(jīng)網(wǎng)絡(luò)卷積層、池化層、Flatten層、批標(biāo)準(zhǔn)化層的講解(圖文解釋)

雖然要掃描整個輸入層,但一個通道只有一個卷積核,因此,對于整個輸入層來說,前向傳遞計算時的參數(shù)是一樣的,這稱為參數(shù)共享(parameter sharing)。參數(shù)共享大大減少了需要學(xué)習(xí)的參數(shù)的數(shù)量。

?【Python機(jī)器學(xué)習(xí)】卷積神經(jīng)網(wǎng)絡(luò)卷積層、池化層、Flatten層、批標(biāo)準(zhǔn)化層的講解(圖文解釋)

?在卷積運(yùn)算中,一般會設(shè)置多個卷積核。示例中設(shè)置了32個卷積核(TensorFlow中稱為過濾器filters),因此該卷積層的輸出為24×24×32,也就是說將28×28×1的數(shù)據(jù)變成了24×24×32的,在畫神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖時,一般用下圖中的長方體來表示上述卷積運(yùn)算,水平方向長度示意卷積核的數(shù)量。

因?yàn)檩斎胧菃瓮ǖ赖?,因此每卷積核只有一層,它的參數(shù)為5×5+1=26,共32個卷積核,因此訓(xùn)練參數(shù)為26×32=832個。

【Python機(jī)器學(xué)習(xí)】卷積神經(jīng)網(wǎng)絡(luò)卷積層、池化層、Flatten層、批標(biāo)準(zhǔn)化層的講解(圖文解釋)

如果待處理張量規(guī)模很大,可以將卷積核由依次移動改為跳躍移動,即加大步長(strides),減少計算量,加快訓(xùn)練速度。

為了提取到邊緣的特征,可以在待處理張量的邊緣填充0再進(jìn)行卷積運(yùn)算,稱為零填充(zero-padding)。填充也可以根據(jù)就近的值進(jìn)行填充。邊緣填充的另一個用途是在張量與卷積核不匹配時,通過填充使之匹配,從而卷積核能掃描到所有數(shù)據(jù)。

卷積層代碼如下

### MindSpore
class mindspore.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, pad_mode='same', padding=0, dilation=1, group=1, has_bias=False, weight_init='normal', bias_init='zeros', data_format='NCHW')
?
### TensorFlow2
tf.keras.layers.Conv2D(
    filters, kernel_size, strides=(1, 1), padding='valid',
    data_format=None, dilation_rate=(1, 1), groups=1, activation=None,
    use_bias=True, kernel_initializer='glorot_uniform',
    bias_initializer='zeros', kernel_regularizer=None,
    bias_regularizer=None, activity_regularizer=None, kernel_constraint=None,
    bias_constraint=None, **kwargs
)

?池化層和Flatten層

池化(pooling)層一般跟在卷積層之后,用于壓縮數(shù)據(jù)和參數(shù)的數(shù)量。

池化操作也叫下采樣(sub-sampling),具體過程與卷積層基本相同,只不過卷積核只取對應(yīng)位置的最大值或平均值,分別稱為最大池化或平均池化。

池化層的移動方式與卷積層不同,它是不重疊地移動。

Flatten層很簡單,只是將輸入的多維數(shù)據(jù)拉成一維的,直觀上可理解為將數(shù)據(jù)“壓平”。

除卷積層、池化層和全連接層(輸入之前隱含F(xiàn)latten層)之外的層,不改變網(wǎng)絡(luò)結(jié)構(gòu),因此,一般只用這三層來表示神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。

【Python機(jī)器學(xué)習(xí)】卷積神經(jīng)網(wǎng)絡(luò)卷積層、池化層、Flatten層、批標(biāo)準(zhǔn)化層的講解(圖文解釋)

?批標(biāo)準(zhǔn)化層

針對誤差難繼續(xù)傳遞問題,批標(biāo)準(zhǔn)化對每一層的批量輸入數(shù)據(jù)x進(jìn)行標(biāo)準(zhǔn)化,使之盡量避免落入飽和區(qū),具體來講就是使之均值為0,方差為1。對每一批輸入數(shù)據(jù)B={x_1,x_2,…,x_m}:

【Python機(jī)器學(xué)習(xí)】卷積神經(jīng)網(wǎng)絡(luò)卷積層、池化層、Flatten層、批標(biāo)準(zhǔn)化層的講解(圖文解釋)

?

其中,?為防止除0的很小的常數(shù)。前三步分別為計算均值、計算方差、標(biāo)準(zhǔn)化,最后一步是對歸一化后的結(jié)果進(jìn)行縮放和平移,其中的γ和β是要學(xué)習(xí)的參數(shù)。

創(chuàng)作不易 覺得有幫助請點(diǎn)贊關(guān)注收藏~~~文章來源地址http://www.zghlxwxcb.cn/news/detail-481341.html

到了這里,關(guān)于【Python機(jī)器學(xué)習(xí)】卷積神經(jīng)網(wǎng)絡(luò)卷積層、池化層、Flatten層、批標(biāo)準(zhǔn)化層的講解(圖文解釋)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【人工智能】— 深度神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、多卷積核、全連接、池化

    【人工智能】— 深度神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、多卷積核、全連接、池化

    Pre-training + Fine-tuning Pre-training(預(yù)訓(xùn)練) : 監(jiān)督逐層訓(xùn)練是多隱層網(wǎng)絡(luò)訓(xùn)練的有效手段, 每次訓(xùn)練一層隱層結(jié)點(diǎn), 訓(xùn)練時將上一層隱層結(jié)點(diǎn)的輸出作為輸入, 而本層隱結(jié)點(diǎn)的輸出作為下一層隱結(jié)點(diǎn)的輸入, 這稱為”預(yù)訓(xùn)練”. Fine-tuning(微調(diào)) : 在預(yù)訓(xùn)練全部完成后, 再對整個網(wǎng)絡(luò)進(jìn)行

    2024年02月10日
    瀏覽(48)
  • 卷積神經(jīng)網(wǎng)絡(luò)(CNN)之卷積操作、池化操作、激活函數(shù)

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)之卷積操作、池化操作、激活函數(shù)

    前言:卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)算法中一個重要組成部分,在深度學(xué)習(xí)圖像識別技術(shù)的應(yīng)用中起到了關(guān)鍵作用。卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)都是類似于傳統(tǒng)的全連接神經(jīng)網(wǎng)絡(luò)(也叫深度神經(jīng)網(wǎng)絡(luò),簡稱DNN),CNN屬于編碼了空間相關(guān)性的DNN,RNN屬于編碼了時間相關(guān)性的DNN。由

    2024年02月04日
    瀏覽(29)
  • 卷積神經(jīng)網(wǎng)絡(luò)中的卷積層、池化層、全連接層、softmax

    卷積層的作用是提取輸入圖片中的信息,這些信息被稱為圖像特征,這些特征是由圖像中的每個像素通過組合或者獨(dú)立的方式所體現(xiàn),比如圖片的紋理特征,顏色特征。 卷積操作類似于數(shù)學(xué)中的卷積,但是更加簡單,計算機(jī)和我們看到的圖像不一樣,計算機(jī)看到的圖像其實(shí)就

    2024年02月09日
    瀏覽(25)
  • 機(jī)器學(xué)習(xí) | 卷積神經(jīng)網(wǎng)絡(luò)

    機(jī)器學(xué)習(xí) | 卷積神經(jīng)網(wǎng)絡(luò)

    采用任意一種課程中介紹過的或者其它卷積神經(jīng)網(wǎng)絡(luò)模型(例如LeNet-5、AlexNet等)用于解決某種媒體類型的模式識別問題。 卷積神經(jīng)網(wǎng)絡(luò)可以基于現(xiàn)有框架如TensorFlow、Pytorch或者M(jìn)indspore等構(gòu)建,也可以自行設(shè)計實(shí)現(xiàn)。 數(shù)據(jù)集可以使用手寫體數(shù)字圖像標(biāo)準(zhǔn)數(shù)據(jù)集,也可以自行構(gòu)

    2024年01月17日
    瀏覽(34)
  • 機(jī)器學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)

    機(jī)器學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)

    卷積神經(jīng)網(wǎng)絡(luò)是人工神經(jīng)網(wǎng)絡(luò)的一種,是一種前饋神經(jīng)網(wǎng)絡(luò)。最早提出時的靈感來源于人類的神經(jīng)元。 通俗來講,其主要的操作就是:接受 輸入層 的輸入信息,通過 卷積層,激活層,池化層 ,進(jìn)行特征的提取與學(xué)習(xí),然后通過 全連接層 完成對比,將分類結(jié)果通過 輸出層

    2024年02月13日
    瀏覽(28)
  • 畢設(shè)項(xiàng)目分享 基于機(jī)器視覺opencv的手勢檢測 手勢識別 算法 - 深度學(xué)習(xí) 卷積神經(jīng)網(wǎng)絡(luò) opencv python

    畢設(shè)項(xiàng)目分享 基于機(jī)器視覺opencv的手勢檢測 手勢識別 算法 - 深度學(xué)習(xí) 卷積神經(jīng)網(wǎng)絡(luò) opencv python

    今天學(xué)長向大家介紹一個機(jī)器視覺項(xiàng)目 基于機(jī)器視覺opencv的手勢檢測 手勢識別 算法 普通機(jī)器視覺手勢檢測的基本流程如下: 其中輪廓的提取,多邊形擬合曲線的求法,凸包集和凹陷集的求法都是采用opencv中自帶的函數(shù)。手勢數(shù)字的識別是利用凸包點(diǎn)以及凹陷點(diǎn)和手部中心

    2024年02月03日
    瀏覽(116)
  • 神經(jīng)網(wǎng)絡(luò)卷積反卷積及池化計算公式、特征圖通道數(shù)(維度)變化實(shí)例

    神經(jīng)網(wǎng)絡(luò)卷積反卷積及池化計算公式、特征圖通道數(shù)(維度)變化實(shí)例

    卷積神經(jīng)網(wǎng)絡(luò),要特別注意輸入圖像的尺寸,如果想套用某個網(wǎng)絡(luò)結(jié)構(gòu),需要先通過網(wǎng)絡(luò)結(jié)構(gòu)計算出輸入圖像尺寸,將自己的圖像調(diào)整為所需要的尺寸;也可以根據(jù)自己的圖像尺寸適當(dāng)調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)。以下是具體操作方法。 目錄 一,要想計算圖像尺寸,先要了解基礎(chǔ)卷積等

    2024年02月03日
    瀏覽(29)
  • 機(jī)器學(xué)習(xí)-12 卷積神經(jīng)網(wǎng)絡(luò)簡介

    機(jī)器學(xué)習(xí)-12 卷積神經(jīng)網(wǎng)絡(luò)簡介

    1.感知機(jī)網(wǎng)絡(luò)(解決線性可分問題,20世紀(jì)40年代) 2.BP神經(jīng)網(wǎng)絡(luò)(解決線性不可分問題,20世紀(jì)80年代) 3.深度神經(jīng)網(wǎng)絡(luò)(海量圖片分類,2010年左右) 常用的深度神經(jīng)網(wǎng)絡(luò):CNN、RNN、LSTM、GRU、GAN、DBN、RBM… 1.計算機(jī)視覺 2.語音識別 3.自然語言處理 4.人機(jī)博弈 傳統(tǒng)機(jī)器學(xué)習(xí)算法

    2024年02月09日
    瀏覽(21)
  • 機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)(LeNet)

    機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)(LeNet)

    ?????作者簡介:一位即將上大四,正專攻機(jī)器學(xué)習(xí)的保研er ??上期文章:機(jī)器學(xué)習(xí)深度學(xué)習(xí)——池化層 ??訂閱專欄:機(jī)器學(xué)習(xí)深度學(xué)習(xí) 希望文章對你們有所幫助 之前的內(nèi)容中曾經(jīng)將softmax回歸模型和多層感知機(jī)應(yīng)用于Fashion-MNIST數(shù)據(jù)集中的服裝圖片。為了能應(yīng)用他們,我

    2024年02月14日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包