国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

聊聊卷積神經(jīng)網(wǎng)絡(luò)CNN

這篇具有很好參考價(jià)值的文章主要介紹了聊聊卷積神經(jīng)網(wǎng)絡(luò)CNN。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種被廣泛應(yīng)用于圖像識(shí)別、語(yǔ)音識(shí)別和自然語(yǔ)言處理等領(lǐng)域的深度學(xué)習(xí)模型。與RNN、Transformer模型組成AI的三大基石。

在卷積神經(jīng)網(wǎng)絡(luò)中,相比較普通的神經(jīng)網(wǎng)絡(luò),增加了卷積層(Convolution)和池化層(Pooling)。其結(jié)構(gòu)一般將會(huì)是如下:

CNN的層連接順序是"Convolution - ReLU - (Pooling)"(Pooling層有時(shí)候可以省略)。

圖中的Affine層,也被稱為全連接層(Dense層)或仿射層,作用是將輸入數(shù)據(jù)(input)與權(quán)重矩陣(W)相乘,然后添加偏置(B),從而進(jìn)行線性變換。這個(gè)線性變換是神經(jīng)網(wǎng)絡(luò)中的一個(gè)基本操作,用來實(shí)現(xiàn)特征映射和模型參數(shù)的學(xué)習(xí)。在幾何學(xué)領(lǐng)域,Affine層進(jìn)行的矩陣乘積運(yùn)算被稱為“仿射變換”。仿射變換包括一次線性變換和一次平移,分別對(duì)應(yīng)神經(jīng)網(wǎng)絡(luò)的加權(quán)和運(yùn)算與加偏置運(yùn)算。

卷積層

傳統(tǒng)的全連接神經(jīng)網(wǎng)絡(luò)(Full-Connected)中忽略了數(shù)據(jù)的形狀,比如,輸入數(shù)據(jù)是圖像時(shí),圖像通常是高、長(zhǎng)、通道三個(gè)方向上的3維形狀。但是向全連接層(FC)輸入時(shí),需要將3維數(shù)據(jù)拉平為1維數(shù)據(jù)。全連接層會(huì)忽視形狀,將全部的輸入數(shù)據(jù)作為相同的神經(jīng)元(同一緯度的神經(jīng)元)處理,所以無法利用與形狀相關(guān)的信息。

卷積層可以保持形狀不變。當(dāng)輸入數(shù)據(jù)是圖像時(shí),卷積層會(huì)以3維數(shù)據(jù)的形式接受輸入數(shù)據(jù),并以3維數(shù)據(jù)的形式輸出至下一層。因此,CNN架構(gòu)的網(wǎng)絡(luò)可以正確理解圖像等具有形狀的數(shù)據(jù)。

卷積層進(jìn)行的處理就是卷積運(yùn)算。卷積運(yùn)算相當(dāng)于圖像處理中的"濾波器運(yùn)算"。而這個(gè)"濾波器"也就是卷積層的卷積核。正是通過它在輸入數(shù)據(jù)上的滑動(dòng)來提取特征。其運(yùn)算過程如下所示:

將各個(gè)位置上濾波器的元素與輸入的對(duì)應(yīng)元素相乘,然后再求和。最后將結(jié)果保存到輸出的對(duì)應(yīng)位置。將這個(gè)過程在所有的位置運(yùn)算一遍,就可以得到卷積運(yùn)算的輸出。

注意,這里的計(jì)算是把輸入的行 乘 卷積核的行; 然后再依次累加,得到最終值。

卷積操作可以分為以下幾個(gè)步驟:

  1. 將卷積核與輸入數(shù)據(jù)的一個(gè)小區(qū)域進(jìn)行逐元素相乘。

  2. 將相乘得到的結(jié)果求和,得到卷積操作的輸出值。

  3. 將卷積核在輸入數(shù)據(jù)上滑動(dòng)一個(gè)固定的步長(zhǎng),重復(fù)上述操作,直到覆蓋整個(gè)輸入數(shù)據(jù)。

通過卷積操作,卷積核可以提取輸入數(shù)據(jù)中的局部特征。這是因?yàn)榫矸e核的每個(gè)權(quán)重都對(duì)應(yīng)著輸入數(shù)據(jù)中的一個(gè)局部區(qū)域,通過逐元素相乘和求和的操作,卷積核可以將這個(gè)局部區(qū)域的特征信息進(jìn)行提取。

卷積核具有以下幾個(gè)重要的特點(diǎn):

  1. 特征提取:卷積核通過滑動(dòng)窗口的方式在輸入數(shù)據(jù)上進(jìn)行卷積操作,從而提取輸入數(shù)據(jù)中的局部特征。這些特征可以用于后續(xù)的分類、檢測(cè)和識(shí)別等任務(wù)。

  2. 參數(shù)共享:卷積核的權(quán)重是共享的,即在卷積操作中使用的同一個(gè)卷積核對(duì)輸入數(shù)據(jù)的不同區(qū)域進(jìn)行卷積操作時(shí),使用的是相同的權(quán)重。這種參數(shù)共享的方式大大減少了模型的參數(shù)量,提高了模型的訓(xùn)練效率。

  3. 空間不變性:卷積操作具有平移不變性,即對(duì)于輸入數(shù)據(jù)中的特征在空間上的平移,卷積操作的輸出結(jié)果不會(huì)發(fā)生變化。這種空間不變性使得卷積神經(jīng)網(wǎng)絡(luò)能夠更好地處理圖像等具有平移不變性的數(shù)據(jù)。

填充

在卷積層處理之前,支持對(duì)輸入數(shù)據(jù)做填充,即在輸入數(shù)據(jù)的周圍填入固定的數(shù)據(jù)(比如0,1等)。而輸入數(shù)據(jù)的形狀改變就會(huì)影響到輸出數(shù)據(jù)的大小,這也是使用填充的作用,通過填充輸入數(shù)據(jù)的周圍數(shù)據(jù),保持輸出數(shù)據(jù)的大小,因此將數(shù)據(jù)傳入到下一層時(shí)就不會(huì)出現(xiàn)丟失或數(shù)據(jù)不全。

向輸入數(shù)據(jù)的周圍填入0,圖中用虛線表示填充,并省略了填充內(nèi)容"0".

步幅

應(yīng)用卷積核的位置間隔即為步幅。默認(rèn)一般都是1,也可以調(diào)整為2或是其它的。步幅可以減少輸出的高、寬。

輸出數(shù)據(jù)的計(jì)算

有個(gè)公式可以算出經(jīng)過卷積核運(yùn)算后的輸出數(shù)據(jù)高與寬, 假設(shè)輸入大小為(H,W),卷積核大小為(FH,FW),輸出大小為(OH,OW),填充為P,步幅為S:

三維卷積

圖像是3維數(shù)據(jù),除了高、長(zhǎng)方向還有通道方向。增加了通道,會(huì)按通道進(jìn)行輸入數(shù)據(jù)與濾波器的卷積運(yùn)算。

需要注意的是,三維卷積的運(yùn)算中,輸入數(shù)據(jù)和卷積核的通道數(shù)要設(shè)置為相同的值。

三維數(shù)據(jù)的書寫格式為(channel, height, width),卷積核的書寫格式也是如此,其運(yùn)算可簡(jiǎn)化如下:

輸出是1個(gè)通道的特征,如果需要多通道,可以疊加起來,其表現(xiàn)形式如下:

應(yīng)該應(yīng)用N個(gè)卷積核,輸出特征數(shù)也生成了N個(gè)。

多維的數(shù)據(jù)在不同的框架(pytorch、TensorFlow)中其表現(xiàn)形式也是不一樣的,一般都是按照張量的階度來標(biāo)識(shí)數(shù)據(jù)維度。CNN的四維數(shù)據(jù),其格式可以表示為(batch_num,channel, height, width)

其它

在某些CNN框架中,會(huì)應(yīng)用小卷積核運(yùn)算,比如1×1卷積,3×3卷積;還有一種分組卷積;一個(gè)卷積層中多尺寸的卷積核等等。這些算是卷積神經(jīng)網(wǎng)絡(luò)中的深入知識(shí)點(diǎn),也可以了解下。

分組卷積

在同一個(gè)卷積層中,能否使用不同尺寸的卷積核呢

CNN中神奇的1x1卷積

池化層

池化是縮小高、長(zhǎng)方向上的空間的運(yùn)算;對(duì)輸入的特征圖進(jìn)行降采樣,減少特征圖的維度,同時(shí)保留重要的特征信息。

池化層的計(jì)算有兩種: 最大池化(Max Pooling)和平均池化(Average Pooling)。最大池化選擇窗口內(nèi)的最大值作為輸出,而平均池化則計(jì)算窗口內(nèi)值的平均值。這兩種方式都能有效地減少特征圖的尺寸,進(jìn)而降低計(jì)算復(fù)雜度。

如下,按步幅為2,進(jìn)行2*2窗口的Max池化,在上一層的輸出數(shù)據(jù)上應(yīng)用窗口,滑動(dòng),每次取窗口內(nèi)的最大值。

這篇博文寫得不錯(cuò),可以更深入的了解池化層:

深入解析卷積神經(jīng)網(wǎng)絡(luò)的池化層:提升特征提取與降低計(jì)算復(fù)雜度文章來源地址http://www.zghlxwxcb.cn/news/detail-747598.html

到了這里,關(guān)于聊聊卷積神經(jīng)網(wǎng)絡(luò)CNN的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 關(guān)于CNN卷積神經(jīng)網(wǎng)絡(luò)

    關(guān)于CNN卷積神經(jīng)網(wǎng)絡(luò)

    CNN代表卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network) 它是一種深度學(xué)習(xí)算法,特別適用于處理圖像和視頻數(shù)據(jù)。CNN由多個(gè) 卷積層、池化層和全連接層 組成,通過學(xué)習(xí)圖像或視頻數(shù)據(jù)的特征來進(jìn)行 分類、識(shí)別或檢測(cè)任務(wù) 。與傳統(tǒng)的全連接神經(jīng)網(wǎng)絡(luò)相比,CNN的 參數(shù)數(shù)量較少 ,能夠

    2023年04月09日
    瀏覽(18)
  • 【人工智能】— 深度神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、多卷積核、全連接、池化

    【人工智能】— 深度神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、多卷積核、全連接、池化

    Pre-training + Fine-tuning Pre-training(預(yù)訓(xùn)練) : 監(jiān)督逐層訓(xùn)練是多隱層網(wǎng)絡(luò)訓(xùn)練的有效手段, 每次訓(xùn)練一層隱層結(jié)點(diǎn), 訓(xùn)練時(shí)將上一層隱層結(jié)點(diǎn)的輸出作為輸入, 而本層隱結(jié)點(diǎn)的輸出作為下一層隱結(jié)點(diǎn)的輸入, 這稱為”預(yù)訓(xùn)練”. Fine-tuning(微調(diào)) : 在預(yù)訓(xùn)練全部完成后, 再對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行

    2024年02月10日
    瀏覽(48)
  • 深度學(xué)習(xí)——CNN卷積神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)——CNN卷積神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種深度學(xué)習(xí)中常用于處理具有網(wǎng)格結(jié)構(gòu)數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)模型。它在計(jì)算機(jī)視覺領(lǐng)域廣泛應(yīng)用于圖像分類、目標(biāo)檢測(cè)、圖像生成等任務(wù)。 CNN 的核心思想是通過利用局部感知和參數(shù)共享來捕捉輸入數(shù)據(jù)的空間結(jié)構(gòu)信息。相比于傳統(tǒng)

    2024年02月15日
    瀏覽(26)
  • 十、CNN卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)

    十、CNN卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)

    輸入樣本通道數(shù)4、期待輸出樣本通道數(shù)2、卷積核大小3×3 具體卷積層的構(gòu)建可參考博文:八、卷積層 設(shè)定卷積層 torch.nn.Conv2d(in_channels=in_channel,out_channels=out_channel,kernel_size=kernel_size,padding=1,stride=1) 必要參數(shù):輸入樣本通道數(shù) in_channels 、輸出樣本通道數(shù) out_channels 、卷積核大小

    2023年04月09日
    瀏覽(37)
  • 深度學(xué)習(xí)|CNN卷積神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)|CNN卷積神經(jīng)網(wǎng)絡(luò)

    在CNN沒有出現(xiàn)前,圖像對(duì)人工智能來說非常難處理。 主要原因: 圖像要處理的數(shù)據(jù)量太大了。圖像由像素組成,每個(gè)像素又由不同顏色組成,一張1000×1000彩色RGB圖像需要的參數(shù)是1000×1000×3,需要三百萬參數(shù)左右,普通神經(jīng)網(wǎng)絡(luò)會(huì)全用全連接方法來學(xué)習(xí)整幅圖像上的特征,處

    2024年02月11日
    瀏覽(33)
  • 深度學(xué)習(xí)03-卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    深度學(xué)習(xí)03-卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    CNN,即卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network),是一種常用于圖像和視頻處理的深度學(xué)習(xí)模型。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,CNN 有著更好的處理圖像和序列數(shù)據(jù)的能力,因?yàn)樗軌蜃詣?dòng)學(xué)習(xí)圖像中的特征,并提取出最有用的信息。 CNN 的一個(gè)核心特點(diǎn)是卷積操作,它可以在圖像上進(jìn)

    2024年02月05日
    瀏覽(25)
  • 卷積神經(jīng)網(wǎng)絡(luò)CNN的經(jīng)典模型

    卷積神經(jīng)網(wǎng)絡(luò)CNN的經(jīng)典模型

    ILSVRC是一項(xiàng)基于 ImageNet 數(shù)據(jù)庫(kù)的國(guó)際大規(guī)模視覺識(shí)別挑戰(zhàn)賽(ImageNet Large Scale Visual Recognition Challenge,ILSVRC) (1)1958年,Rosenblatt發(fā)明了感知機(jī)。用于對(duì)輸入的多維數(shù)據(jù)進(jìn)行二分類且能夠使用梯度下降法自動(dòng)更新權(quán)值。 缺點(diǎn):只能處理線性分類問題。 (2)1986年,Geoffrey Hi

    2024年02月07日
    瀏覽(22)
  • CNN卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)

    CNN卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)

    1.1 卷積核大小的選擇 1. 選擇奇數(shù)卷積核 ①. 保護(hù)位置信息,奇數(shù)卷積核的中心點(diǎn)位置在中心,有利于定位任務(wù)。 ②. padding時(shí)左右對(duì)稱。 2. 在感受野相同的情況下優(yōu)先選擇較小的卷積核以減少計(jì)算量 ①. 兩個(gè)3x3卷積核的感受野與一個(gè)5x5卷積核的感受野相同 ②. 兩個(gè)3x3卷積核的

    2024年02月04日
    瀏覽(50)
  • 深度學(xué)習(xí)之卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    深度學(xué)習(xí)之卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    ? ? ? 大家好,我是帶我去滑雪! ? ? ? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種基于深度學(xué)習(xí)的前饋神經(jīng)網(wǎng)絡(luò),主要用于 圖像 和 視頻識(shí)別 、 分類 、 分割 和 標(biāo)注 等計(jì)算機(jī)視覺任務(wù)。它主要由 卷積層 、 池化層 、 全連接層 和 激活函數(shù)層 等組成。其中,卷積

    2024年02月05日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包