国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

這篇具有很好參考價值的文章主要介紹了卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

前言

??本文總結(jié)了關(guān)于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的一些基礎(chǔ)的概念,并且對于其中的細(xì)節(jié)進(jìn)行了詳細(xì)的原理講解,通過此文可以十分全面的了解卷積神經(jīng)網(wǎng)絡(luò)(CNN),非常適合于作為Deep Learning的入門學(xué)習(xí)。下面就是本篇博客的全部內(nèi)容!


一、什么是卷積神經(jīng)網(wǎng)絡(luò)

??卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)這個概念的提出可以追溯到二十世紀(jì)80~90年代,但是有那么一段時間這個概念被“雪藏”了,因?yàn)楫?dāng)時的硬件和軟件技術(shù)比較落后,而隨著各種深度學(xué)習(xí)理論相繼被提出以及數(shù)值計算設(shè)備的高速發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)得到了快速發(fā)展。那究竟什么是卷積神經(jīng)網(wǎng)絡(luò)呢?以手寫數(shù)字識別為例,整個識別的過程如下所示:

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖1:手寫數(shù)字識別過程

??以上過程就是識別手寫數(shù)字的全部過程,這個項(xiàng)目我之前也寫過相關(guān)博客并開源了代碼,感興趣的同學(xué)可查閱: 基于CNN的MINIST手寫數(shù)字識別項(xiàng)目代碼以及原理詳解。話說回來,可以看到整個過程需要在如下幾層進(jìn)行運(yùn)算:

  • 輸入層:輸入圖像等信息
  • 卷積層:用來提取圖像的底層特征
  • 池化層:防止過擬合,將數(shù)據(jù)維度減小
  • 全連接層:匯總卷積層和池化層得到的圖像的底層特征和信息
  • 輸出層:根據(jù)全連接層的信息得到概率最大的結(jié)果

??可以看到其中最重要的一層就是卷積層,這也是卷積神經(jīng)網(wǎng)絡(luò)名稱的由來,下面將會詳細(xì)講解這幾層的相關(guān)內(nèi)容。

二、輸入層

??輸入層比較簡單,這一層的主要工作就是輸入圖像等信息,因?yàn)榫矸e神經(jīng)網(wǎng)絡(luò)主要處理的是圖像相關(guān)的內(nèi)容,但是我們?nèi)搜劭吹降膱D像和計算機(jī)處理的圖像是一樣的么?很明顯是不一樣的,對于輸入圖像,首先要將其轉(zhuǎn)換為對應(yīng)的二維矩陣,這個二位矩陣就是由圖像每一個像素的像素值大小組成的,我們可以看一個例子,如下圖所示的手寫數(shù)字“8”的圖像,計算機(jī)讀取后是以像素值大小組成的二維矩陣存儲的圖像。

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖2:數(shù)字8的灰度圖像與其對應(yīng)的二維矩陣

??上圖又稱為灰度圖像,因?yàn)槠涿恳粋€像素值的范圍是0~255(由純黑色到純白色),表示其顏色強(qiáng)弱程度。另外還有黑白圖像,每個像素值要么是0(表示純黑色),要么是255(表示純白色)。我們?nèi)粘I钪凶畛R姷木褪荝GB圖像,有三個通道,分別是紅色、綠色、藍(lán)色。每個通道的每個像素值的范圍也是0~255,表示其每個像素的顏色強(qiáng)弱。但是我們?nèi)粘L幚淼幕径际腔叶葓D像,因?yàn)楸容^好操作(值范圍較小,顏色較單一),有些RGB圖像在輸入給神經(jīng)網(wǎng)絡(luò)之前也被轉(zhuǎn)化為灰度圖像,也是為了方便計算,否則三個通道的像素一起處理計算量非常大。當(dāng)然,隨著計算機(jī)性能的高速發(fā)展,現(xiàn)在有些神經(jīng)網(wǎng)絡(luò)也可以處理三通道的RGB圖像。

??現(xiàn)在我們已經(jīng)知道了,輸入層的作用就是將圖像轉(zhuǎn)換為其對應(yīng)的由像素值構(gòu)成的二維矩陣,并將此二維矩陣存儲,等待后面幾層的操作。

三、卷積層

??那圖片輸入進(jìn)來之后該怎么處理呢?假設(shè)我們已經(jīng)得到圖片的二維矩陣了,想要提取其中特征,那么卷積操作就會為存在特征的區(qū)域確定一個高值,否則確定一個低值。這個過程需要通過計算其與卷積核(Convolution Kernel)的乘積值來確定。假設(shè)我們現(xiàn)在的輸入圖片是一個人的腦袋,而人的眼睛是我們需要提取的特征,那么我們就將人的眼睛作為卷積核,通過在人的腦袋的圖片上移動來確定哪里是眼睛,這個過程如下所示:

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖3:提取人的眼睛的特征的過程

??通過整個卷積過程又得到一個新的二維矩陣,此二維矩陣也被稱為特征圖(Feature Map),最后我們可以將得到的特征圖進(jìn)行上色處理(我只是打個比方,比如高值為白色,低值為黑色),最后可以提取到關(guān)于人的眼睛的特征,如下所示:

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖4:提取人的眼睛的特征的結(jié)果

??看著上面的描述可能有點(diǎn)懵,別急,首先卷積核也是一個二維矩陣,當(dāng)然這個二維矩陣要比輸入圖像的二維矩陣要小或相等,卷積核通過在輸入圖像的二維矩陣上不停的移動,每一次移動都進(jìn)行一次乘積的求和,作為此位置的值,這個過程如下圖所示:

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖5:卷積的過程

??可以看到,整個過程就是一個降維的過程,通過卷積核的不停移動計算,可以提取圖像中最有用的特征。我們通常將卷積核計算得到的新的二維矩陣稱為特征圖,比如上方動圖中,下方移動的深藍(lán)色正方形就是卷積核,上方不動的青色正方形就是特征圖。

??有的讀者可能注意到,每次卷積核移動的時候中間位置都被計算了,而輸入圖像二維矩陣的邊緣卻只計算了一次,會不會導(dǎo)致計算的結(jié)果不準(zhǔn)確呢?

??讓我們仔細(xì)思考,如果每次計算的時候,邊緣只被計算一次,而中間被多次計算,那么得到的特征圖也會丟失邊緣特征,最終會導(dǎo)致特征提取不準(zhǔn)確,那為了解決這個問題,我們可以在原始的輸入圖像的二維矩陣周圍再拓展一圈或者幾圈,這樣每個位置都可以被公平的計算到了,也就不會丟失任何特征,此過程可見下面兩種情況,這種通過拓展解決特征丟失的方法又被稱為Padding。

  • Padding取值為1,拓展一圈

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖6:Padding為1時卷積的過程
  • Padding取值為2,拓展兩圈

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖7:Padding為2時卷積的過程

??那如果情況再復(fù)雜一些呢?如果我們使用兩個卷積核去提取一張彩色圖片呢?之前我們介紹過,彩色圖片都是三個通道,也就是說一個彩色圖片會有三個二維矩陣,當(dāng)然,我們僅以第一個通道示例,否則太多了也不好介紹。此時我們使用兩組卷積核,每組卷積核都用來提取自己通道的二維矩陣的特征,剛才說了,我們只考慮第一通道的,所以說我們只需要用兩組卷積核的第一個卷積核來計算得到特征圖就可以了,那么這個過程可見下圖

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖8:兩個卷積核進(jìn)行卷積的過程

??看著上面的動圖確實(shí)有些不知所措是吧,我來解釋一下,按照剛才的思路,輸入圖片是彩色圖片,有三個通道,所以輸入圖片的尺寸就是7×7×3,而我們只考慮第一個通道,也就是從第一個7×7的二維矩陣中提取特征,那么我們只需要使用每組卷積核的第一個卷積核即可,這里可能有讀者會注意到Bias,其實(shí)它就是偏置項(xiàng),最后計算的結(jié)果加上它就可以了,最終通過計算就可以得到特征圖了??梢园l(fā)現(xiàn),有幾個卷積核就有幾個特征圖,因?yàn)槲覀儸F(xiàn)在只使用了兩個卷積核,所以會得到兩個特征圖。

??以上就是關(guān)于卷積層的一些相關(guān)知識,當(dāng)然,本文也只是一個入門,所以說還有一些比較復(fù)雜的內(nèi)容沒有進(jìn)行深入闡述,這個就需要等到過后的學(xué)習(xí)與總結(jié)了。

四、池化層

??剛才我們也提到了,有幾個卷積核就有多少個特征圖,現(xiàn)實(shí)中情況肯定更為復(fù)雜,也就會有更多的卷積核,那么就會有更多的特征圖,當(dāng)特征圖非常多的時候,意味著我們得到的特征也非常多,但是這么多特征都是我們所需要的么?顯然不是,其實(shí)有很多特征我們是不需要的,而這些多余的特征通常會給我們帶來如下兩個問題:

  • 過擬合
  • 維度過高

??為了解決這個問題,我們可以利用池化層,那什么是池化層呢?池化層又稱為下采樣,也就是說,當(dāng)我們進(jìn)行卷積操作后,再將得到的特征圖進(jìn)行特征提取,將其中最具有代表性的特征提取出來,可以起到減小過擬合和降低維度的作用,這個過程如下所示:

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖9:池化的過程

??那有的讀者可能會問了,我應(yīng)該以什么規(guī)則進(jìn)行特征提取呢?其實(shí)這個過程類似于卷積的過程,就是一個正方形的小方塊在圖片上進(jìn)行移動,每次我們?nèi)∵@個正方形方框中最具有代表性的特征,那么問題又來了,如何提取到最有代表性的特征呢,通常有兩種方法:

  • 最大池化

    顧名思義,最大池化就是每次取正方形中所有值的最大值,這個最大值也就相當(dāng)于當(dāng)前位置最具有代表性的特征,這個過程如下所示:

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖10:最大池化的過程

??????這里有幾個參數(shù)需要說明一下:
??????① kernel_size = 2:池化過程使用的正方形尺寸是2×2,如果是在卷積的過程中就說明卷積核的大小是2×2
??????② stride = 2:每次正方形移動兩個位置(從左到右,從上到下),這個過程其實(shí)和卷積的操作過程一樣
??????③ padding = 0:這個之前介紹過,如果此值為0,說明沒有進(jìn)行拓展

  • 平均池化

    平均池化就是取此正方形區(qū)域中所有值的平均值,考慮到每個位置的值對于此處特征的影響,平均池化計算也比較簡單,整個過程如下圖所示:

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖11:平均池化的過程

??對于其中的參數(shù)含義與上面介紹的最大池化一致,另外,需要注意計算平均池化時采用向上取整。

??以上就是關(guān)于池化層的所有操作,我們再回顧一下,經(jīng)過池化后,我們可以提取到更有代表性的特征,同時還減少了不必要的計算,這對于我們現(xiàn)實(shí)中的神經(jīng)網(wǎng)絡(luò)計算大有脾益,因?yàn)楝F(xiàn)實(shí)情況中神經(jīng)網(wǎng)絡(luò)非常大,而經(jīng)過池化層后,就可以明顯的提高模型的效率。所以說,池化層的好處很多,將其優(yōu)點(diǎn)總結(jié)如下:

  • 在減少參數(shù)量的同時,還保留了原圖像的原始特征

  • 有效防止過擬合

  • 為卷積神經(jīng)網(wǎng)絡(luò)帶來平移不變性

    以上兩個優(yōu)點(diǎn)我們之前已經(jīng)介紹過了,那什么又是平移不變性呢?可以用我們之前的一個例子,如下圖所示:

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖12:池化的平移不變性

??可以看到,兩張原始圖片的位置有所不同,一個是正常的,另一個是人的腦袋稍稍左移了一些,經(jīng)過卷積操作后,得到各自對應(yīng)的特征圖,這兩張?zhí)卣鲌D也和原始圖片的位置相對應(yīng),一個眼睛特征的位置是正常的,另一個眼睛特征的位置稍稍左移了一些,雖然人可以分辨,但是經(jīng)過神經(jīng)網(wǎng)絡(luò)計算后,就可能帶來誤差,因?yàn)閼?yīng)該出現(xiàn)眼睛的位置并沒有出現(xiàn)眼睛,那應(yīng)該怎么辦呢?此時使用池化層進(jìn)行池化操作,可以發(fā)現(xiàn),雖然池化之前兩幅圖片的眼睛特征不在一個位置,但是經(jīng)過池化之后,眼睛特征的位置都是相同的,這就為后續(xù)神經(jīng)網(wǎng)絡(luò)的計算帶來了方便,此性質(zhì)就是池化的平移不變性

五、全連接層

??假設(shè)還是上面人的腦袋的示例,現(xiàn)在我們已經(jīng)通過卷積和池化提取到了這個人的眼睛、鼻子和嘴的特征,如果我想利用這些特征來識別這個圖片是否是人的腦袋該怎么辦呢?此時我們只需要將提取到的所有特征圖進(jìn)行“展平”,將其維度變?yōu)?span id="n5n3t3z" class="katex--inline"> 1 × x 1×x 1×x,這個過程就是全連接的過程,也就是說,此步我們將所有的特征都展開并進(jìn)行運(yùn)算,最后會得到一個概率值,這個概率值就是輸入圖片是否是人的概率,這個過程如下所示:

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖13:全連接的過程

??單看這個過程可能還是不太清晰,所以我們可以把之前的過程與全連接層結(jié)合起來,如下圖所示:

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖14:整個過程

??可以看到,經(jīng)過兩次卷積和最大池化之后,得到最后的特征圖,此時的特征都是經(jīng)過計算后得到的,所以代表性比較強(qiáng),最后經(jīng)過全連接層,展開為一維的向量,再經(jīng)過一次計算后,得到最終的識別概率,這就是卷積神經(jīng)網(wǎng)絡(luò)的整個過程。

六、輸出層

??卷積神經(jīng)網(wǎng)絡(luò)的輸出層理解起來就比較簡單了,我們只需要將全連接層得到的一維向量經(jīng)過計算后得到識別值的一個概率,當(dāng)然,這個計算可能是線性的,也可能是非線性的。在深度學(xué)習(xí)中,我們需要識別的結(jié)果一般都是多分類的,所以每個位置都會有一個概率值,代表識別為當(dāng)前值的概率,取最大的概率值,就是最終的識別結(jié)果。在訓(xùn)練的過程中,可以通過不斷地調(diào)整參數(shù)值來使識別結(jié)果更準(zhǔn)確,從而達(dá)到最高的模型準(zhǔn)確率。

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖15:輸出層示意圖

七、回顧整個過程

??卷積神經(jīng)網(wǎng)絡(luò)最經(jīng)典的應(yīng)用莫過于手寫數(shù)字識別了,比如我現(xiàn)在手寫一個數(shù)字8,那么卷積神經(jīng)網(wǎng)絡(luò)是如何識別出來的呢?整個識別的過程如下圖所示:

卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

圖16:手寫數(shù)字識別的過程
  1. 將手寫數(shù)字圖片轉(zhuǎn)換為像素矩陣
  2. 對像素矩陣進(jìn)行Padding不為0的卷積運(yùn)算,目的是保留邊緣特征,生成一個特征圖
  3. 對這個特征圖使用六個卷積核進(jìn)行卷積運(yùn)算,得到六個特征圖
  4. 對每個特征圖進(jìn)行池化操作(也可稱為下采樣操作),在保留特征的同時縮小數(shù)據(jù)流,生成六個小圖,這六個小圖和上一層各自的特征圖長得很像,但尺寸縮小了
  5. 對池化操作后得到的六個小圖進(jìn)行第二次卷積運(yùn)算,生成了更多的特征圖
  6. 對第二次卷積生成的特征圖進(jìn)行池化操作(下采樣操作)
  7. 將第二次池化操作得到的特征進(jìn)行第一次全連接
  8. 將第一次全連接的結(jié)果進(jìn)行第二次全連接
  9. 將第二次全鏈接的結(jié)果進(jìn)行最后一次運(yùn)算,這種運(yùn)算可能是線性的也可能是非線性的,最終每個位置(一共十個位置,從0到9)都有一個概率值,這個概率值就是將輸入的手寫數(shù)字識別為當(dāng)前位置數(shù)字的概率,最后以概率最大的位置的值作為識別結(jié)果??梢钥吹?,右側(cè)上方是我的手寫數(shù)字,右側(cè)下方是模型(LeNet)的識別結(jié)果,最終的識別結(jié)果與我輸入的手寫數(shù)字是一致的,這一點(diǎn)從圖片左邊最上邊也可以看到,說明此模型可以成功識別手寫數(shù)字

總結(jié)

??以上就是本篇博客的全部內(nèi)容了,可以看到內(nèi)容寫的非常充實(shí),也耗費(fèi)了我不少時間來總結(jié),希望可以和大家一起學(xué)習(xí)、進(jìn)步。另外,由于本人水平有限,有錯的地方還望讀者指正,謝謝大家!下篇博客見!文章來源地址http://www.zghlxwxcb.cn/news/detail-480659.html

到了這里,關(guān)于卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 卷積神經(jīng)網(wǎng)絡(luò)(CNN)的整體框架及細(xì)節(jié)(詳細(xì)簡單)

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)的整體框架及細(xì)節(jié)(詳細(xì)簡單)

    我們傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)有什么區(qū)別? 下圖所示,左圖就是我們傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)(NN) (想了解NN的小伙伴可以先劃到最后的參考文章部分) ,右圖就是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)(CNN),我們在這張圖中可以明顯地看出,左圖看上去像二維的,右圖好像

    2023年04月11日
    瀏覽(17)
  • 卷積神經(jīng)網(wǎng)絡(luò)全解!CNN結(jié)構(gòu)、訓(xùn)練與優(yōu)化全維度介紹!

    卷積神經(jīng)網(wǎng)絡(luò)全解!CNN結(jié)構(gòu)、訓(xùn)練與優(yōu)化全維度介紹!

    本文全面探討了卷積神經(jīng)網(wǎng)絡(luò)CNN,深入分析了背景和重要性、定義與層次介紹、訓(xùn)練與優(yōu)化,詳細(xì)分析了其卷積層、激活函數(shù)、池化層、歸一化層,最后列出其訓(xùn)練與優(yōu)化的多項(xiàng)關(guān)鍵技術(shù):訓(xùn)練集準(zhǔn)備與增強(qiáng)、損失函數(shù)、優(yōu)化器、學(xué)習(xí)率調(diào)整、正則化技巧與模型評估調(diào)優(yōu)。旨

    2024年02月12日
    瀏覽(27)
  • 卷積神經(jīng)網(wǎng)絡(luò)CNN原理+代碼(pytorch實(shí)現(xiàn)MNIST集手寫數(shù)字分類任務(wù))

    卷積神經(jīng)網(wǎng)絡(luò)CNN原理+代碼(pytorch實(shí)現(xiàn)MNIST集手寫數(shù)字分類任務(wù))

    前言 若將圖像數(shù)據(jù)輸入全連接層,可能會導(dǎo)致喪失一些位置信息 卷積神經(jīng)網(wǎng)絡(luò)將圖像按照原有的空間結(jié)構(gòu)保存,不會喪失位置信息。 卷積運(yùn)算: 1.以單通道為例: 將將input中選中的部分與kernel進(jìn)行數(shù)乘 : 以上圖為例對應(yīng)元素相乘結(jié)果為211,并將結(jié)果填入output矩陣的左上角

    2024年02月04日
    瀏覽(24)
  • CNN卷積神經(jīng)網(wǎng)絡(luò)

    CNN卷積神經(jīng)網(wǎng)絡(luò)

    一、 什么是CNN卷積神經(jīng)網(wǎng)絡(luò) 卷積神經(jīng)網(wǎng)絡(luò)由三部分組成:輸入層、由n個卷積層和池化層的組合組成、全連結(jié)的多層感知機(jī)分類器。 深度學(xué)習(xí)的迅速發(fā)展,我們會在不同的應(yīng)用場景會使用不同的神經(jīng)網(wǎng)絡(luò),沒有一個神經(jīng)網(wǎng)絡(luò)他能在任何場景下,效果都好,也沒有說某一個算法

    2024年02月06日
    瀏覽(34)
  • 理解卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種專為處理具有類似網(wǎng)格結(jié)構(gòu)的數(shù)據(jù)(如圖像)而設(shè)計的深度學(xué)習(xí)架構(gòu)。自從在圖像處理和計算機(jī)視覺領(lǐng)域取得突破性成就以來,CNN已成為這些領(lǐng)域的核心技術(shù)之一。 CNN的起源與發(fā)展 CNN的概念最初是受到生物視覺感知機(jī)制的啟發(fā)而提出的。早期的研

    2024年03月10日
    瀏覽(27)
  • 聊聊卷積神經(jīng)網(wǎng)絡(luò)CNN

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種被廣泛應(yīng)用于圖像識別、語音識別和自然語言處理等領(lǐng)域的深度學(xué)習(xí)模型。與RNN、Transformer模型組成AI的三大基石。 在卷積神經(jīng)網(wǎng)絡(luò)中,相比較普通的神經(jīng)網(wǎng)絡(luò),增加了卷積層(Convolution)和池化層(Pooling)。其結(jié)構(gòu)一般將會是如下

    2024年02月05日
    瀏覽(24)
  • 關(guān)于CNN卷積神經(jīng)網(wǎng)絡(luò)

    關(guān)于CNN卷積神經(jīng)網(wǎng)絡(luò)

    CNN代表卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network) 它是一種深度學(xué)習(xí)算法,特別適用于處理圖像和視頻數(shù)據(jù)。CNN由多個 卷積層、池化層和全連接層 組成,通過學(xué)習(xí)圖像或視頻數(shù)據(jù)的特征來進(jìn)行 分類、識別或檢測任務(wù) 。與傳統(tǒng)的全連接神經(jīng)網(wǎng)絡(luò)相比,CNN的 參數(shù)數(shù)量較少 ,能夠

    2023年04月09日
    瀏覽(18)
  • 【人工智能】— 深度神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、多卷積核、全連接、池化

    【人工智能】— 深度神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、多卷積核、全連接、池化

    Pre-training + Fine-tuning Pre-training(預(yù)訓(xùn)練) : 監(jiān)督逐層訓(xùn)練是多隱層網(wǎng)絡(luò)訓(xùn)練的有效手段, 每次訓(xùn)練一層隱層結(jié)點(diǎn), 訓(xùn)練時將上一層隱層結(jié)點(diǎn)的輸出作為輸入, 而本層隱結(jié)點(diǎn)的輸出作為下一層隱結(jié)點(diǎn)的輸入, 這稱為”預(yù)訓(xùn)練”. Fine-tuning(微調(diào)) : 在預(yù)訓(xùn)練全部完成后, 再對整個網(wǎng)絡(luò)進(jìn)行

    2024年02月10日
    瀏覽(48)
  • 十、CNN卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)

    十、CNN卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)

    輸入樣本通道數(shù)4、期待輸出樣本通道數(shù)2、卷積核大小3×3 具體卷積層的構(gòu)建可參考博文:八、卷積層 設(shè)定卷積層 torch.nn.Conv2d(in_channels=in_channel,out_channels=out_channel,kernel_size=kernel_size,padding=1,stride=1) 必要參數(shù):輸入樣本通道數(shù) in_channels 、輸出樣本通道數(shù) out_channels 、卷積核大小

    2023年04月09日
    瀏覽(37)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包