国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

機(jī)器學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)

這篇具有很好參考價(jià)值的文章主要介紹了機(jī)器學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network:CNN)

卷積神經(jīng)網(wǎng)絡(luò)是人工神經(jīng)網(wǎng)絡(luò)的一種,是一種前饋神經(jīng)網(wǎng)絡(luò)。最早提出時(shí)的靈感來(lái)源于人類的神經(jīng)元。

通俗來(lái)講,其主要的操作就是:接受輸入層的輸入信息,通過(guò)卷積層,激活層,池化層,進(jìn)行特征的提取與學(xué)習(xí),然后通過(guò)全連接層完成對(duì)比,將分類結(jié)果通過(guò)輸出層輸出。

那么卷積神經(jīng)網(wǎng)絡(luò)最重要的任務(wù)我認(rèn)為只有兩個(gè):
1.如何從原始數(shù)據(jù)中更好的學(xué)到特征信息。
2.如何將學(xué)到的特征更好的映射到標(biāo)記樣本。
這兩個(gè)任務(wù)應(yīng)該是CNN分類的關(guān)鍵

卷積層

對(duì)于輸入層和輸出層我們沒(méi)什么好講的,我們將從卷積層開(kāi)始,詳細(xì)了解卷積層,激活層,池化層和全連接層的詳細(xì)工作原理。

CNN怎么識(shí)別

對(duì)于這個(gè)問(wèn)題,我們需要引入CNN的識(shí)別原理:CNN的識(shí)別本質(zhì)上是一種“局部特征”的對(duì)比,也就是說(shuō),我們將輸入數(shù)據(jù)的局部與標(biāo)注的樣本數(shù)據(jù)的局部對(duì)比,如果某個(gè)或多個(gè)局部對(duì)比被判定為“匹配”,則認(rèn)定其輸入數(shù)據(jù)和樣本數(shù)據(jù)屬于同一類別。


樸素來(lái)講,我們可以通過(guò)直接對(duì)圖像中的像素和樣本數(shù)據(jù)對(duì)比。但是這樣通常過(guò)于“武斷”,比如下面這種情況。

機(jī)器學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ),機(jī)器學(xué)習(xí),cnn,人工智能

當(dāng)我們選取了x圖形對(duì)角線的像素對(duì)比,我們會(huì)發(fā)現(xiàn)并不相等,所以認(rèn)定右邊的圖片不是x圖形類別。這顯然是不合適,我們需要換一種對(duì)比方法。

所以我們會(huì)選取一個(gè)“像素窗口”,截取一小塊像素,把這個(gè)小塊的區(qū)域成為“特征”,對(duì)比特征無(wú)誤則可認(rèn)定為統(tǒng)一類別。
機(jī)器學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ),機(jī)器學(xué)習(xí),cnn,人工智能

卷積層有怎么幫助CNN識(shí)別

這里我們需要明確一下這樣的幾個(gè)概念之間的關(guān)系
filter濾波器,這個(gè)東西實(shí)際上是卷積核的集合,而卷積核就是個(gè)權(quán)重矩陣(二維矩陣)的集合
對(duì)于一張RBG圖,他的特征層分RBG三層,他通道數(shù)就是三個(gè)通道。
而且對(duì)于濾波器里的一個(gè)卷積核來(lái)說(shuō),他的二維矩陣的數(shù)量和通道數(shù)是相同的。

如下圖所示,藍(lán)色的是圖片,黃色的卷積核,綠色的輸出的結(jié)果(綠色的層數(shù)和卷積核的數(shù)量相同)
機(jī)器學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ),機(jī)器學(xué)習(xí),cnn,人工智能

我們可以看到上面的CNN對(duì)比一個(gè)重要的點(diǎn)就是“特征”,卷積層可以通過(guò)算法操作,學(xué)習(xí)特征。

我們將圖像視為一個(gè)三維數(shù)組,他的厚度我們稱為通道數(shù)(特征層數(shù)),每一層長(zhǎng)寬視為矩陣的大小。在這樣的一層上,我們對(duì)其添加“滑動(dòng)窗口”和濾波器。

然后我們通過(guò)濾波器中的各個(gè)卷積核對(duì)圖像卷積(對(duì)應(yīng)元素相乘后求和)得到輸出矩陣,如下圖。
機(jī)器學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ),機(jī)器學(xué)習(xí),cnn,人工智能
顯然兩個(gè)卷積核得到兩個(gè)輸出矩陣,三個(gè)特征層對(duì)應(yīng)每個(gè)卷積核三個(gè)權(quán)重矩陣。
至此,一個(gè)卷積層的任務(wù)結(jié)束。

建議再去了解卷積核、滑動(dòng)窗口這些東西具體代碼的關(guān)鍵參數(shù),比如卷積核的一個(gè)關(guān)鍵參數(shù)就是核尺寸,步幅和步數(shù)。

激活層

激活,激活什么,為什么要激活。
我理解為,激活就是激活整個(gè)神經(jīng)網(wǎng)絡(luò)的表達(dá)空間。
為什么要激活,主要還是因?yàn)閮H僅靠卷積,我們沒(méi)法有較好的“表達(dá)空間”,所以我們需要一個(gè)函數(shù)來(lái)幫我們把卷積層的結(jié)果做非線性映射,提升整個(gè)神經(jīng)網(wǎng)絡(luò)的表達(dá)能力。

這種函數(shù)包括:ReLU,softmax,sigmoid等。每個(gè)函數(shù)都有自身的優(yōu)點(diǎn),可以適用于不同場(chǎng)景,當(dāng)然我們對(duì)一個(gè)網(wǎng)絡(luò)可以添加多個(gè)激活層。

但是每個(gè)網(wǎng)絡(luò)也會(huì)有自身的缺點(diǎn),這些缺點(diǎn)無(wú)非都是偏離了激活層的初衷,讓卷積層的結(jié)果沒(méi)法逼近一個(gè)非線性函數(shù)來(lái)提高網(wǎng)絡(luò)的表達(dá)能力。

PS:表達(dá)能力就可以看做學(xué)習(xí)分類能力

池化層

池化,簡(jiǎn)言之,即取區(qū)域平均或最大。

還是給定滑動(dòng)窗口,但是這次只需要直接輸出滑動(dòng)窗口內(nèi)的最大值或平均值即可,對(duì)應(yīng)池化成為“最大池化”和“平均池化”。

機(jī)器學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ),機(jī)器學(xué)習(xí),cnn,人工智能

目的是為了壓縮特征,提高效率。

全連接層

建議去看這個(gè)博主的博客對(duì)全連接層(fully connected layer)的通俗理解

本質(zhì)就是由一個(gè)特征空間線性變換到另一個(gè)特征空間。目標(biāo)空間的任一維——也就是隱層的一個(gè) 神經(jīng)元——都認(rèn)為會(huì)受到源空間的每一維的影響。不考慮嚴(yán)謹(jǐn),可以說(shuō),目標(biāo)向量是源向量的加權(quán)和。

全連接層(fully connected layers,F(xiàn)C)在整個(gè)卷積神經(jīng)網(wǎng)絡(luò)中起到“分類器”的作用。如果說(shuō)卷積層、池化層和激活函數(shù)等操作是將原始數(shù)據(jù)映射到隱層特征空間的話,全連接層則起到將學(xué)到的“分布式特征表示”(下面會(huì)講到這個(gè)分布式特征)映射到樣本標(biāo)記空間的作用。在實(shí)際使用中,全連接層可由卷積操作實(shí)現(xiàn):

對(duì)前層是全連接的全連接層可以轉(zhuǎn)化為卷積核為1x1的卷積;而前層是卷積層的全連接層可以轉(zhuǎn)化為卷積核為hw的全局卷積,hw分別為前層卷積結(jié)果的高和寬。

全連接的核心操作就是矩陣向量乘積 y = Wx

一個(gè)簡(jiǎn)單的CNN網(wǎng)絡(luò)的層次結(jié)構(gòu)

機(jī)器學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ),機(jī)器學(xué)習(xí),cnn,人工智能文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-641125.html

到了這里,關(guān)于機(jī)器學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包