国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

VGG網(wǎng)絡(luò)結(jié)構(gòu)詳解

這篇具有很好參考價(jià)值的文章主要介紹了VGG網(wǎng)絡(luò)結(jié)構(gòu)詳解。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

參考論文:Very Deep Convolutional Networks for Large-Scale Image Recognition

結(jié)構(gòu)組成

論文中提供的6種網(wǎng)絡(luò)配置:
VGG網(wǎng)絡(luò)結(jié)構(gòu)詳解
整個(gè)網(wǎng)絡(luò)有5個(gè)vgg-block塊和5個(gè)maxpool層逐個(gè)相連,然后進(jìn)入FC層,直到最后1000個(gè)softmax輸出。多種VGG網(wǎng)絡(luò)設(shè)計(jì)都很統(tǒng)一,都有相同的224×224×3的input層+5個(gè)maxpool層+3層fc全連接層,區(qū)別在于中間的Vgg-block塊的設(shè)計(jì)不同。

以上圖D列的vgg16為例:

input:

224×224×3 三通道(RGB)的圖像;

vgg-block:

輸入224×224×3,經(jīng)過(guò)64個(gè)filter(kernelsize=(3,3,3)),stride = 1,padding=same后,得224×224×64;

Max-pooling:

輸入224×224×64,經(jīng)過(guò)pool size=2,stride=2后,得112×112×64;

vgg-block:

輸入112×112×64,經(jīng)128個(gè)filter(kernelsize=(3,3,64)),得到112×112×128;

Max-pooling:

輸入112×112×128,經(jīng)pool size = 2,stride = 2后,得56×56×128;

vgg-block

輸入56×56×128,經(jīng)過(guò)256個(gè)filter(kernelsize=(3,3,128))后,得56×56×256;

Max-pooling

輸入56×56×256,經(jīng)pool size = 2,stride = 2后,得28×28×256;

vgg-block:

輸入28×28×256,經(jīng)過(guò)512個(gè)filter(kernelsize=(3,3,256))后,得28×28×512;

Max-pooling

輸入28×28×512,經(jīng)pool size = 2,stride = 2后,得14×14×512;

vgg-block:

輸入14×14×256,經(jīng)過(guò)512個(gè)filter(kernelsize=(3,3,512))后,得14×14×512;

Max-pooling

輸入14×14×512,經(jīng)pool size = 2,stride = 2后,得7×7×512,展平(Flattern)得25088個(gè)參數(shù);

Dense

輸入(25088,),經(jīng)過(guò)4096個(gè)神經(jīng)元,得(4096,);

Dense

輸入(4096,),經(jīng)過(guò)4096個(gè)神經(jīng)元,得(4096,);

Dense

輸入(4096,),經(jīng)過(guò)1000個(gè)神經(jīng)元,得(1000,)。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-470059.html

其中前兩層全連接層在使用relu后還使用了Dropout(rate=0.5)對(duì)神經(jīng)元隨機(jī)失活,最后一層全連接層用softmax輸出1000個(gè)分類(lèi)。

特點(diǎn)

論文提出,通過(guò)堆疊2個(gè) 3*3 的卷積核來(lái)代替 5*5 的卷積核;堆疊3個(gè) 3*3 的卷積核來(lái)代替 7*7 的卷積核。雖然用了小的卷積核來(lái)替換大的卷積核,但并不會(huì)影響感受野,即感受野是相同的,但減少了參數(shù)。

到了這里,關(guān)于VGG網(wǎng)絡(luò)結(jié)構(gòu)詳解的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀(guān)點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • ResNet網(wǎng)絡(luò)結(jié)構(gòu)詳解,網(wǎng)絡(luò)搭建,遷移學(xué)習(xí)

    ResNet網(wǎng)絡(luò)結(jié)構(gòu)詳解,網(wǎng)絡(luò)搭建,遷移學(xué)習(xí)

    前言: 參考內(nèi)容來(lái)自u(píng)p:6.1 ResNet網(wǎng)絡(luò)結(jié)構(gòu),BN以及遷移學(xué)習(xí)詳解_嗶哩嗶哩_bilibili up的代碼和ppt:https://github.com/WZMIAOMIAO/deep-learning-for-image-processing ResNet 網(wǎng)絡(luò)是在 2015年 由微軟實(shí)驗(yàn)室提出,斬獲當(dāng)年ImageNet競(jìng)賽中分類(lèi)任務(wù)第一名,目標(biāo)檢測(cè)第一名。獲得COCO數(shù)據(jù)集中目標(biāo)檢測(cè)第一

    2024年02月04日
    瀏覽(26)
  • YOLOX網(wǎng)絡(luò)結(jié)構(gòu)詳解

    YOLOX網(wǎng)絡(luò)結(jié)構(gòu)詳解

    論文名稱(chēng):YOLOX: Exceeding YOLO Series in 2021 論文下載地址:https://arxiv.org/abs/2107.08430 論文對(duì)應(yīng)源碼地址:https://github.com/Megvii-BaseDetection/YOLOX 在bilibili上的視頻講解:https://www.bilibili.com/video/BV1JW4y1k76c 在之前文章中我們已經(jīng)聊過(guò)YOLO v5了,今天我們?cè)賮?lái)聊聊YOLOX。YOLOX是曠視科技在2

    2024年02月04日
    瀏覽(19)
  • 圖神經(jīng)網(wǎng)絡(luò)論文筆記(一)——北郵:基于學(xué)習(xí)解糾纏因果子結(jié)構(gòu)的圖神經(jīng)網(wǎng)絡(luò)去偏

    圖神經(jīng)網(wǎng)絡(luò)論文筆記(一)——北郵:基于學(xué)習(xí)解糾纏因果子結(jié)構(gòu)的圖神經(jīng)網(wǎng)絡(luò)去偏

    作者 :范少華 研究方向 :圖神經(jīng)網(wǎng)絡(luò) 論文標(biāo)題 : 基于學(xué)習(xí)解耦因果子結(jié)構(gòu)的圖神經(jīng)網(wǎng)絡(luò)去偏 論文鏈接 :https://arxiv.org/pdf/2209.14107.pdf ? ? ? ? https://doi.org/10.48550/arXiv.2209.14107 ??大多數(shù)圖神經(jīng)網(wǎng)絡(luò)(GNNs)通過(guò)學(xué)習(xí)輸入圖和標(biāo)簽之間的相關(guān)性來(lái)預(yù)測(cè)不可見(jiàn)圖的標(biāo)簽。然而,

    2024年02月07日
    瀏覽(12)
  • PointNet++詳解(二):網(wǎng)絡(luò)結(jié)構(gòu)解析

    PointNet++詳解(二):網(wǎng)絡(luò)結(jié)構(gòu)解析

    如有錯(cuò)誤,懇請(qǐng)指出。 在之前對(duì)PointNet與PointNet++網(wǎng)絡(luò)進(jìn)行了介紹,接下來(lái)是對(duì)其代碼的解析。 1. 論文閱讀筆記 | 三維目標(biāo)檢測(cè)——PointNet 2. 論文閱讀筆記 | 三維目標(biāo)檢測(cè)——PointNet++ 參考的github項(xiàng)目為:https://github.com/yanx27/Pointnet_Pointnet2_pytorch 這篇博客的內(nèi)容主要是將PointN

    2024年02月02日
    瀏覽(14)
  • AlexNet網(wǎng)絡(luò)結(jié)構(gòu)的實(shí)現(xiàn)和詳解

    AlexNet網(wǎng)絡(luò)結(jié)構(gòu)的實(shí)現(xiàn)和詳解

    AlexNet網(wǎng)絡(luò)結(jié)構(gòu)特點(diǎn): 1.首次利用GPU進(jìn)行網(wǎng)絡(luò)加速訓(xùn)練?(GPU處理速度是CPU的20-50倍) 2.使用了ReLU激活函數(shù),而不是傳統(tǒng)的Sigmoid激活函數(shù)(缺點(diǎn):求導(dǎo)麻煩、容易梯度消失)以及tanh激活函數(shù) ?3.使用了LRN(Local Response Normalization)局部相應(yīng)歸一化 4.在全連接層的前兩層中使用了Dr

    2024年02月05日
    瀏覽(15)
  • Swin-Transformer網(wǎng)絡(luò)結(jié)構(gòu)詳解

    Swin-Transformer網(wǎng)絡(luò)結(jié)構(gòu)詳解

    Swin Transformer是2021年微軟研究院發(fā)表在ICCV上的一篇文章,并且已經(jīng)獲得 ICCV 2021 best paper 的榮譽(yù)稱(chēng)號(hào)。Swin Transformer網(wǎng)絡(luò)是Transformer模型在視覺(jué)領(lǐng)域的又一次碰撞。該論文一經(jīng)發(fā)表就已在多項(xiàng)視覺(jué)任務(wù)中霸榜。該論文是在2021年3月發(fā)表的,現(xiàn)在是2021年11月了,根據(jù)官方提供的信息

    2024年02月04日
    瀏覽(19)
  • YOLOv8詳解 【網(wǎng)絡(luò)結(jié)構(gòu)+代碼+實(shí)操】

    YOLOv8詳解 【網(wǎng)絡(luò)結(jié)構(gòu)+代碼+實(shí)操】

    ?????? 目標(biāo)檢測(cè)——Yolo系列(YOLOv1/2/v3/4/5/x/6/7) ??? YOLOv8改進(jìn)——引入可變形卷積DCNv3 YOLOv8是目前YOLO系列算法中最新推出的檢測(cè)算法,YOLOv8可以完成檢測(cè)、分類(lèi)、分割任務(wù),其檢測(cè)和分割網(wǎng)絡(luò)結(jié)構(gòu)圖如下。 YOLOv8 算法的核心特性和改動(dòng)可以歸結(jié)為如下: 提供了一個(gè)全新

    2024年02月01日
    瀏覽(33)
  • YOLOv5網(wǎng)絡(luò)結(jié)構(gòu),訓(xùn)練策略詳解

    YOLOv5網(wǎng)絡(luò)結(jié)構(gòu),訓(xùn)練策略詳解

    前面已經(jīng)講過(guò)了Yolov5模型目標(biāo)檢測(cè)和分類(lèi)模型訓(xùn)練流程,這一篇講解一下yolov5模型結(jié)構(gòu),數(shù)據(jù)增強(qiáng),以及訓(xùn)練策略。 官方地址 :https://github.com/ultralytics/yolov5 yolov5模型訓(xùn)練流程 :https://blog.csdn.net/qq_45066628/article/details/129470290?spm=1001.2014.3001.5501 Yolov5 (v6.2) 使用自己的數(shù)據(jù)訓(xùn)練分類(lèi)

    2023年04月18日
    瀏覽(27)
  • ResNet網(wǎng)絡(luò)結(jié)構(gòu),BN以及遷移學(xué)習(xí)詳解

    ResNet網(wǎng)絡(luò)結(jié)構(gòu),BN以及遷移學(xué)習(xí)詳解

    ?網(wǎng)絡(luò)中的亮點(diǎn): 1.超深的網(wǎng)絡(luò)結(jié)構(gòu)(超過(guò)1000層) 2.提出residual(殘差)模塊 3.使用Batch Normalization加速訓(xùn)練(丟棄dropout) 左邊是將卷積層和池化層進(jìn)行一個(gè)簡(jiǎn)單的堆疊所搭建的網(wǎng)絡(luò)結(jié)構(gòu) 20層的訓(xùn)練錯(cuò)誤率大概在1%~2%左右 56層的訓(xùn)練錯(cuò)誤率大概在7%~8% 所以通過(guò)簡(jiǎn)單的卷積層和池化

    2024年02月11日
    瀏覽(27)
  • ResNet詳解:網(wǎng)絡(luò)結(jié)構(gòu)解讀與PyTorch實(shí)現(xiàn)教程

    ResNet詳解:網(wǎng)絡(luò)結(jié)構(gòu)解讀與PyTorch實(shí)現(xiàn)教程

    本文深入探討了深度殘差網(wǎng)絡(luò)(ResNet)的核心概念和架構(gòu)組成。我們從深度學(xué)習(xí)和梯度消失問(wèn)題入手,逐一解析了殘差塊、初始卷積層、殘差塊組、全局平均池化和全連接層的作用和優(yōu)點(diǎn)。文章還包含使用PyTorch構(gòu)建和訓(xùn)練ResNet模型的實(shí)戰(zhàn)部分,帶有詳細(xì)的代碼和解釋。 關(guān)注

    2024年02月10日
    瀏覽(18)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包