国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【卷積神經(jīng)網(wǎng)絡(luò)】經(jīng)典網(wǎng)絡(luò)之 LeNet-5, AlexNet 與 VGG-16

這篇具有很好參考價(jià)值的文章主要介紹了【卷積神經(jīng)網(wǎng)絡(luò)】經(jīng)典網(wǎng)絡(luò)之 LeNet-5, AlexNet 與 VGG-16。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

隨著計(jì)算機(jī)硬件的升級(jí)與性能的提高,運(yùn)算量已不再是阻礙深度學(xué)習(xí)發(fā)展的難題。卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)是深度學(xué)習(xí)中一項(xiàng)代表性的工作,其雛形是 1998 年 LeCun 提出的 LeNet-5 模型。如今,卷積神經(jīng)網(wǎng)絡(luò)已被廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)領(lǐng)域。本文主要介紹卷積神經(jīng)網(wǎng)絡(luò)中的經(jīng)典網(wǎng)絡(luò),包括 LeNet-5, AlexNet 和 VGG-16.

目錄

1 LeNet-5

2 AlexNet

3 VGG-16


1 LeNet-5

? ? ? ? LeNet-5 是經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)之一,1998 年由 Yann LeCun 等人在論文 《Gradient-Based Learning Applied to Document Recognition》中提出。LeNet-5 網(wǎng)絡(luò)使用了卷積層、池化層和全連接層,實(shí)現(xiàn)可以應(yīng)用于手寫體識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)。

論文鏈接如下:

《Gradient-Based Learning Applied to Document Recognition》

? ? ? ? LeNet-5 包含 2 個(gè)卷積層和 3 個(gè)全連接層,包含學(xué)習(xí)參數(shù)的網(wǎng)絡(luò)層有 5 層。LeNet-5 的輸入圖像大小是 32 x 32,顏色通道數(shù)為 1,這表明 LeNet-5 僅支持輸入黑白圖像。?

【卷積神經(jīng)網(wǎng)絡(luò)】經(jīng)典網(wǎng)絡(luò)之 LeNet-5, AlexNet 與 VGG-16,【卷積神經(jīng)網(wǎng)絡(luò)】,cnn,人工智能,神經(jīng)網(wǎng)絡(luò)

卷積 / 池化操作 圖像大小 / 神經(jīng)元個(gè)數(shù) 待訓(xùn)練的參數(shù)個(gè)數(shù)
Input 32 × 32 × 1 /
Conv1 5 × 5, s = 1 28 × 28?× 6 150
avg pool1 2?× 2, s = 2 14?× 14?× 6 /
Conv2 5?× 5, s = 1 10?× 10?× 16 2,400
avg pool2 2?× 2, s = 2 5?× 5?× 16 /
FC1 120 48,000
FC2 84 10,080
FC3 (Output) 10 840

????????LeNet-5 網(wǎng)絡(luò)擁有約 6.1 萬(wàn)個(gè)待訓(xùn)練的參數(shù),與如今常見(jiàn)的卷積神經(jīng)網(wǎng)絡(luò)不同, LeNet-5 激活層使用了 Sigmoid 函數(shù),池化層采用平均池化,另外最后一層的輸出使用 RBF 函數(shù)處理(而現(xiàn)在常用的處理方法是 Softmax 函數(shù))。

2 AlexNet

? ? ? ? 與?LeNet-5?類似,AlexNet?是另一個(gè)用于圖像識(shí)別的經(jīng)典神經(jīng)網(wǎng)絡(luò)。AlexNet?的名字來(lái)源于其第一作者?Alex?Krizhevsky,于?2012?年?ImageNet?賽事奪冠之后為人們所熟知。AlexNet?沿用了?LeNet-5?的思路,把卷積,池化操作應(yīng)用于更深層的神經(jīng)網(wǎng)絡(luò)中。

論文鏈接如下:

《ImageNet Classification with Deep Convolutional Neural Networks》

【卷積神經(jīng)網(wǎng)絡(luò)】經(jīng)典網(wǎng)絡(luò)之 LeNet-5, AlexNet 與 VGG-16,【卷積神經(jīng)網(wǎng)絡(luò)】,cnn,人工智能,神經(jīng)網(wǎng)絡(luò)

卷積 / 池化操作 圖像大小 / 神經(jīng)元個(gè)數(shù) 待訓(xùn)練的參數(shù)個(gè)數(shù)
Input 224??× 224??× 3 /
Conv1 11?× 11, s = 4 55?× 55?× 96 34,848
max pool1 3?× 3, s = 2 27?× 27?× 96 /
Conv2 5?× 5, p = 1, s = 1 27?× 27?× 256 614,400
max pool2 3?× 3, s = 2 13?× 13?× 256 /
Conv3 3?× 3, p = 1, s = 1 13?× 13?× 384 884,736
Conv4 3?× 3, p = 1, s = 1 13?× 13?× 384 1,327,104
Conv5 3?× 3, p = 1, s = 1 13?× 13?× 256 884,736
max pool3 3?× 3, s = 2 6?× 6?× 256 /
FC1 4,096 37,748,736
FC2 4,096 16,777,216
FC3 (Output) 1,000 4,096,000

????????AlexNet 網(wǎng)絡(luò)擁有約 6200?萬(wàn)個(gè)參數(shù),AlexNet?的創(chuàng)新點(diǎn)包括:
(1)使用?ReLU?作為卷積層的激活函數(shù),避免了?Sigmoid?函數(shù)在網(wǎng)絡(luò)層數(shù)增加時(shí)梯度消失或爆炸問(wèn)題;
(2)全連接層使用?DropOut?隨機(jī)失活方式,屏蔽一部分神經(jīng)元的輸出值,避免模型的過(guò)擬合;
(3)使用重疊的最大池化。AlexNet?使用最大池化替代此前人們常用的平均池化,避免了平均池化的模糊問(wèn)題,并且池化的步長(zhǎng)比池化核小,使池化輸出有一定的重疊,豐富輸出特征。

3 VGG-16

????????VGG 網(wǎng)絡(luò)是 Oxford 的 Visual Geometry Group 團(tuán)隊(duì)提出,在 2014 年的 ImageNet 賽事中取得亞軍。VGG 在 AlexNet 的基礎(chǔ)上進(jìn)一步增加了神經(jīng)網(wǎng)絡(luò)的深度,表明當(dāng)網(wǎng)絡(luò)層數(shù)增加到 16~19 個(gè)時(shí)可以實(shí)現(xiàn)顯著改進(jìn)。

論文鏈接如下:

《Very Deep Convolutional Networks for Large-Scale Image Recognition》

【卷積神經(jīng)網(wǎng)絡(luò)】經(jīng)典網(wǎng)絡(luò)之 LeNet-5, AlexNet 與 VGG-16,【卷積神經(jīng)網(wǎng)絡(luò)】,cnn,人工智能,神經(jīng)網(wǎng)絡(luò)

????????VGG 網(wǎng)絡(luò)有兩個(gè)常見(jiàn)的版本,VGG-16 和 VGG-19,分別對(duì)應(yīng)上圖中的模型 D 和模型 E,數(shù)字 16 和 19 表示帶有待訓(xùn)練權(quán)重的網(wǎng)絡(luò)層數(shù)。VGG-16 有 13 個(gè)卷積層和 3 個(gè)全連接層,VGG-19 比 VGG-16 多 3 個(gè)卷積層,有 16 個(gè)卷積層和 3 個(gè)全連接層。

卷積 / 池化操作 圖像大小 / 神經(jīng)元個(gè)數(shù) 待訓(xùn)練的參數(shù)個(gè)數(shù)
Input 224?× 224?× 3 /
Conv1 3?× 3, p = 1, s = 1 224?× 224?× 64 1,728
Conv2 3?× 3, p = 1, s = 1 224?× 224??× 64 36,864
max pool1 2?× 2, s = 2 112?× 112?× 64 /
Conv3 3?× 3, p = 1, s = 1 112?× 112?× 128 73,728
Conv4 3?× 3, p = 1, s = 1 112?× 112?× 128 147,456
max pool2 2?× 2, s = 2 56?× 56?× 128 /
Conv5 3?× 3, p = 1, s = 1 56?× 56?× 256 294,912
Conv6 3?× 3, p = 1, s = 1 56?× 56?× 256 589,824
Conv7 3?× 3, p = 1, s = 1 56?× 56?× 256 589,824
max pool3 2?× 2, s = 2 28?× 28?× 256 /
Conv8 3?× 3, p = 1, s = 1 28?× 28?× 512 1,179,648
Conv9 3?× 3, p = 1, s = 1 28?× 28?× 512 2,359,296
Conv10 3?× 3, p = 1, s = 1 28?× 28?× 512 2,359,296
max pool4 2?× 2, s = 2 14?× 14?× 512 /
Conv11 3?× 3, p = 1, s = 1 14?× 14?× 512 2,359,296
Conv12 3?× 3, p = 1, s = 1 14?× 14?× 512 2,359,296
Conv13 3?× 3, p = 1, s = 1 14?× 14?× 512 2,359,296
max pool5 2?× 2, s = 2 7?× 7?× 512 /
FC1 4,096 102,760,448
FC2 4,096 16,777,216
FC3 (Output) 1,000 4,096,000

????????VGG-16 網(wǎng)絡(luò)擁有約 1.38 億個(gè)參數(shù)。它的主要?jiǎng)?chuàng)新之處在于,VGG 使用了多個(gè)連續(xù)的卷積層,以及尺寸更小的卷積核(3 × 3 大小),替代 AlexNet 中大尺寸的卷積核(11 × 11,5 × 5 等大小),以更好地提取圖像的深層特征。

? ? ? ? 另外,隨著神經(jīng)網(wǎng)絡(luò)層數(shù)的增加,輸出圖像的寬高減半,卷積層的輸出特征數(shù)從最初的 64,增加到 128,256 和 512。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-665458.html

到了這里,關(guān)于【卷積神經(jīng)網(wǎng)絡(luò)】經(jīng)典網(wǎng)絡(luò)之 LeNet-5, AlexNet 與 VGG-16的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 深度學(xué)習(xí)圖像分類實(shí)戰(zhàn)——pytorch搭建卷積神經(jīng)網(wǎng)絡(luò)(AlexNet, LeNet, ResNet50)進(jìn)行場(chǎng)景圖像分類(詳細(xì))

    深度學(xué)習(xí)圖像分類實(shí)戰(zhàn)——pytorch搭建卷積神經(jīng)網(wǎng)絡(luò)(AlexNet, LeNet, ResNet50)進(jìn)行場(chǎng)景圖像分類(詳細(xì))

    目錄 1??一、實(shí)驗(yàn)過(guò)程 1.1??實(shí)驗(yàn)?zāi)康?1.2??實(shí)驗(yàn)簡(jiǎn)介 1.3??數(shù)據(jù)集的介紹 1.4??一、LeNet5網(wǎng)絡(luò)模型 1.5??二、AlexNet網(wǎng)絡(luò)模型 1.6??三、ResNet50(殘差網(wǎng)絡(luò))網(wǎng)絡(luò)模型 ?二、實(shí)驗(yàn)代碼 導(dǎo)入實(shí)驗(yàn)所需要的庫(kù) ?參數(shù)配置 數(shù)據(jù)預(yù)處理 重新DataSet 加載數(shù)據(jù)轉(zhuǎn)為DataLoader函數(shù) 可視化一批訓(xùn)練

    2024年02月05日
    瀏覽(28)
  • 【圖像分類】理論篇(2)經(jīng)典卷積神經(jīng)網(wǎng)絡(luò) Lenet~Densenet

    【圖像分類】理論篇(2)經(jīng)典卷積神經(jīng)網(wǎng)絡(luò) Lenet~Densenet

    目錄 1、卷積運(yùn)算 2、經(jīng)典卷積神經(jīng)網(wǎng)絡(luò) 2.1 Lenet 網(wǎng)絡(luò)構(gòu)架 代碼實(shí)現(xiàn) 2.2?Alexnet 網(wǎng)絡(luò)構(gòu)架 代碼實(shí)現(xiàn) 2.3 VGG VGG16網(wǎng)絡(luò)構(gòu)架 代碼實(shí)現(xiàn) 2.4 ResNet ResNet50網(wǎng)絡(luò)構(gòu)架 代碼實(shí)現(xiàn) ?在二維卷積運(yùn)算中,卷積窗口從輸入張量的左上角開(kāi)始,從左到右、從上到下滑動(dòng)。 當(dāng)卷積窗口滑動(dòng)到新一個(gè)位

    2024年02月13日
    瀏覽(51)
  • 基于FPGA的VGG16卷積神經(jīng)網(wǎng)絡(luò)加速器

    基于FPGA的VGG16卷積神經(jīng)網(wǎng)絡(luò)加速器

    文章搬運(yùn)自本人知乎 VGG在2014年由牛津大學(xué)Visual GeometryGroup提出,獲得該年lmageNet競(jìng)賽中Localization Task(定位任務(wù))第一名和 Classification Task (分類任務(wù))第二名。與AlexNet相比,VGG使用了3個(gè)3x3卷積核來(lái)代替7x7卷積核,使用了2個(gè)3x3卷積核來(lái)代替5x5卷積核,從而在保證具有相同感知野的

    2024年02月06日
    瀏覽(20)
  • 深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)CNN之 VGGNet模型主vgg16和vgg19網(wǎng)絡(luò)模型詳解說(shuō)明(理論篇)

    深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)CNN之 VGGNet模型主vgg16和vgg19網(wǎng)絡(luò)模型詳解說(shuō)明(理論篇)

    1.VGG背景 2. VGGNet模型結(jié)構(gòu) 3. 特點(diǎn)(創(chuàng)新、優(yōu)缺點(diǎn)及新知識(shí)點(diǎn)) ?? VGGNet是2014年ILSVRC(ImageNet Large Scale Visual Recognition Challenge 大規(guī)模視覺(jué)識(shí)別挑戰(zhàn)賽 )競(jìng)賽的第二名,解決ImageNet中的 1000類圖像分類和定位問(wèn)題 ,第一名是GoogLeNet。 ?? VGG全稱是Visual Geometry Group,因?yàn)槭怯蒓

    2024年02月03日
    瀏覽(21)
  • LeNet卷積神經(jīng)網(wǎng)絡(luò)-筆記

    LeNet卷積神經(jīng)網(wǎng)絡(luò)-筆記

    LeNet卷積神經(jīng)網(wǎng)絡(luò)-筆記 手寫分析LeNet網(wǎng)三卷積運(yùn)算和兩池化加兩全連接層計(jì)算分析 修正上圖中H,W的計(jì)算公式為下面格式 基于paddle飛槳框架構(gòu)建測(cè)試代碼 #輸出結(jié)果為: #[validation] accuracy/loss: 0.9530/0.1516 #這里準(zhǔn)確率為95.3% #通過(guò)運(yùn)行結(jié)果可以看出,LeNet在手寫數(shù)字識(shí)別MNIST驗(yàn)證數(shù)

    2024年02月14日
    瀏覽(22)
  • 深度卷積神經(jīng)網(wǎng)絡(luò)(AlexNet)

    深度卷積神經(jīng)網(wǎng)絡(luò)(AlexNet)

    ???大家好,我是Sonhhxg_柒,希望你看完之后,能對(duì)你有所幫助,不足請(qǐng)指正!共同學(xué)習(xí)交流?? ??個(gè)人主頁(yè)-Sonhhxg_柒的博客_CSDN博客??? ??歡迎各位→點(diǎn)贊?? + 收藏?? + 留言??? ??系列專欄 - 機(jī)器學(xué)習(xí)【ML】?自然語(yǔ)言處理【NLP】? 深度學(xué)習(xí)【DL】 ? ???foreword ?說(shuō)

    2023年04月25日
    瀏覽(24)
  • 深度學(xué)習(xí)-卷積神經(jīng)網(wǎng)絡(luò)-AlexNET

    深度學(xué)習(xí)-卷積神經(jīng)網(wǎng)絡(luò)-AlexNET

    本章內(nèi)容來(lái)自B站: AlexNet深度學(xué)習(xí)圖像分類算法 5.池化層 6.全連接層 7.網(wǎng)絡(luò)架構(gòu) 8.Relu激活函數(shù) sigmoid和tanh會(huì)產(chǎn)生梯度消失或者爆炸的問(wèn)題 手寫數(shù)字識(shí)別 雙GPU上 5.過(guò)擬合-dropout 6.性能 1.三位大師 2.論文詳細(xì)內(nèi)容

    2024年02月07日
    瀏覽(26)
  • 機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)(LeNet)

    機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——卷積神經(jīng)網(wǎng)絡(luò)(LeNet)

    ?????作者簡(jiǎn)介:一位即將上大四,正專攻機(jī)器學(xué)習(xí)的保研er ??上期文章:機(jī)器學(xué)習(xí)深度學(xué)習(xí)——池化層 ??訂閱專欄:機(jī)器學(xué)習(xí)深度學(xué)習(xí) 希望文章對(duì)你們有所幫助 之前的內(nèi)容中曾經(jīng)將softmax回歸模型和多層感知機(jī)應(yīng)用于Fashion-MNIST數(shù)據(jù)集中的服裝圖片。為了能應(yīng)用他們,我

    2024年02月14日
    瀏覽(20)
  • 卷積神經(jīng)網(wǎng)絡(luò)模型之——AlexNet網(wǎng)絡(luò)結(jié)構(gòu)與代碼實(shí)現(xiàn)

    卷積神經(jīng)網(wǎng)絡(luò)模型之——AlexNet網(wǎng)絡(luò)結(jié)構(gòu)與代碼實(shí)現(xiàn)

    AlexNet原文地址:https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf AlexNet誕生于2012年,由2012年ImageNet競(jìng)賽冠軍獲得者Hinton和他的學(xué)生Alex Krizhevsky設(shè)計(jì)的。 AlexNet的貢獻(xiàn)點(diǎn): 首次使用GPU加速網(wǎng)絡(luò)訓(xùn)練 使用ReLU激活函數(shù),代替不是傳統(tǒng)的Sigmoid和Tanh,解決了Sigmo

    2024年02月08日
    瀏覽(22)
  • 基于卷積神經(jīng)網(wǎng)絡(luò)VGG的貓狗識(shí)別

    基于卷積神經(jīng)網(wǎng)絡(luò)VGG的貓狗識(shí)別

    !有需要本項(xiàng)目的實(shí)驗(yàn)源碼的可以私信博主! 摘要: 隨著大數(shù)據(jù)時(shí)代的到來(lái),深度學(xué)習(xí)、數(shù)據(jù)挖掘、圖像處理等已經(jīng)成為了一個(gè)熱門研究方向。深度學(xué)習(xí)是一個(gè)復(fù)雜的機(jī)器學(xué)習(xí)算法,在語(yǔ)音和圖像識(shí)別方面取得的效果,遠(yuǎn)遠(yuǎn)超過(guò)先前相關(guān)技術(shù)。這也是深度學(xué)習(xí)在當(dāng)下備受歡

    2024年02月12日
    瀏覽(29)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包