一、CNN簡介
1、應用領域
- 檢測任務
- 分類與檢索
- 超分辨率重構
2、卷積網絡與傳統(tǒng)網咯的區(qū)別
- 傳統(tǒng)神經網絡和卷積神經網絡都是用來提取特征的。
- 神經網絡:
- 可以將其看作是一個二維的。
- 卷積神經網絡:
- 可以將其看作是一個三維的。
?3、整體框架
二、輸入層
- 該層主要是對原始圖像數(shù)據(jù)進行預處理,保留了圖片本身的結構。
- 對于黑白的32*32的圖片,CNN的輸入是一個32*32的二維神經元;對于RGB格式的32*32圖片,CNN的輸入則是一個32*32*3的三維神經元。
- 三維包括寬度、高度和深度。
- 深度可以看作是不同的顏色通道,例如:RGB,可拆分為R、G、B三個通道。
三、卷積層
1、卷積的任務
- 卷積的任務,就是將圖像分成若干區(qū)域,然后計算每個區(qū)域的特征值。
- 例如:
- 將圖像分割為5*5*3個小塊,每3*3*3個小塊矩陣看作是一個區(qū)域,從每個區(qū)域中提取一個特征。(上圖只演示了一個通道)
- 區(qū)域的數(shù)據(jù):
,區(qū)域的權重參數(shù)矩陣:
,特征圖:
2、卷積特征值計算方法
2.1、圖像顏色通道
- 計算特征值的過程中,讓每個通道都要做計算,然后將每個通道的結果加在一起。
-
2.2、特征值計算過程
-
,每一個通道會有一個權重參數(shù)矩陣,方法是計算它們的內積,3個通道的計算結果之和加上偏移值(b0=1),即為最終特征值。
- 【注】上圖中的三個權重參數(shù)矩陣,統(tǒng)稱為卷積核。
- 例如:
- 最終結果:
- (0+2+0)+b=3(b為偏置值,已知為1)
3、特征圖表示
- 特征圖可以不唯一,下圖中就有兩個特征圖。
- 主要原因是,卷積核可以不唯一(使用不同的方法進行特征提取),這樣的話就會計算出多個特征圖來,如下圖。
- 【注】有幾個卷積核就有幾個特征圖;卷積核中權重參數(shù)矩陣的個數(shù)與輸入的通道個數(shù)相同。
- 計算特征圖時,每個區(qū)域平移了兩個單元格(可自行定義)即步長為2,如下圖。
4、步長與卷積核大小對結果的影響
4.1、堆疊的卷積層
- 由下圖可知,在分類圖像的過程中,做了很多次卷積。
- 多次卷積并不是對一張圖片從粗到細地多次計算特征,而是從所得到特征圖的基礎上去做卷積,如下圖。
4.2、卷積層涉及參數(shù)
4.2.1、滑動窗口步長
- 步長為1的卷積
- 步長為2的卷積
- 步長越小,得到的特征越豐富,但計算效率越慢。
4.2.2、卷積核尺寸
- 卷積核尺寸即為卷積核中權重參數(shù)矩陣的維度。下圖卷積核的尺寸即為3*3*3。
-
,也可以4*4*3,卷積核尺寸越小,得到的特征越豐富。
4.2.3、邊緣填充
- 一張圖片在劃分區(qū)域計算特征時,有些點會被重復利用,即會影響多個結果。例如下圖劃紅線的區(qū)域,就會影響特征圖中的兩個值。
-
- 邊緣的點只會影響一個值,而靠近中心的點可能會影響多個值,這對邊緣來說是不公平的。例如下圖畫圈的點,影響了特征圖中的四個值。
-
- 原始輸入中,即為下圖5*5紫色矩陣。在其邊界加上一圈全0的值,這樣的話,原本的邊界就不再是邊界了,一定程度上彌補了邊界信息缺失的問題。
-
,添加0對最終結果不會產生影響。
4.2.4、卷積核個數(shù)
- 卷積核個數(shù)決定了最終得到的特征圖個數(shù)。
- 每個卷積核的數(shù)值是不同的。
5、特征圖尺寸計算與參數(shù)共享
5.1、卷積結果計算公式
- 長度:
- 寬度:
- 其中W1、H1表示輸入的寬度、長度;W2、H2表示輸出特征圖的寬度、長度;F表示卷積核長和寬的大??;S表示滑動窗口的步長;P表示邊界填充(加幾圈0)。
- 例如:
5.2、卷積參數(shù)共享
- 圖片中的每個區(qū)域,都是使用同一卷積核進行計算,然后得到一個特征圖,即為參數(shù)共享。
- 這樣可以大量節(jié)省參數(shù),例如:
四、池化層
1、池化層的作用
- 池化層的作用是對得到的特征圖進行壓縮。
- 下圖就是對特征圖的長、寬進行了壓縮,而不是減少特征圖的個數(shù)。
2、最大池化
- 池化過程中,是選擇某個區(qū)域中最大的特征值(值越大,越重要),如下圖。
五、全連接層
- 全連接層的作用:將得到的所有特征圖整合起來,便于分類處理。
- 全連接層把所有二維特征圖轉換為一個二維向量。
文章來源地址http://www.zghlxwxcb.cn/news/detail-694276.html
文章來源:http://www.zghlxwxcb.cn/news/detail-694276.html
到了這里,關于深度學習入門教學——卷積神經網絡CNN的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!