国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【深度學(xué)習(xí)Week3】ResNet+ResNeXt

這篇具有很好參考價(jià)值的文章主要介紹了【深度學(xué)習(xí)Week3】ResNet+ResNeXt。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

一、ResNet

Ⅰ.視頻學(xué)習(xí)

ResNet在2015年由微軟實(shí)驗(yàn)室提出,該網(wǎng)絡(luò)的亮點(diǎn):

1.超深的網(wǎng)絡(luò)結(jié)構(gòu)(突破1000層)

簡(jiǎn)單堆疊卷積層和池化層,會(huì)導(dǎo)致梯度消失梯度爆炸退化問題;
ResNet使用深度殘差學(xué)習(xí)框架來解決退化問題。

2.提出residual模塊

【深度學(xué)習(xí)Week3】ResNet+ResNeXt,2023新征程,深度學(xué)習(xí),人工智能

3.使用Batch Normalization加速訓(xùn)練(丟棄dropout)
【深度學(xué)習(xí)Week3】ResNet+ResNeXt,2023新征程,深度學(xué)習(xí),人工智能

Ⅱ.論文閱讀

Deep Residual Learning for Image Recognition,CVPR2016
深度學(xué)習(xí)論文:Deep Residual Learning for Image Recognition
深度學(xué)習(xí)經(jīng)典論文分析(六)

網(wǎng)絡(luò)不是越深越好,隨著網(wǎng)絡(luò)深度的增加,精度會(huì)飽和,然后迅速退化,且這并不是由過擬合引起的。文中通過引入一個(gè)深度殘差學(xué)習(xí)框架來解決退化問題。不是讓網(wǎng)絡(luò)直接擬合原先的映射,而是擬合殘差映射。實(shí)際上,把殘差推至0和把此映射逼近另一個(gè)非線性層相比要容易的多。

二、ResNeXt

Ⅰ.視頻學(xué)習(xí)

1.更新block
【深度學(xué)習(xí)Week3】ResNet+ResNeXt,2023新征程,深度學(xué)習(xí),人工智能
2.組卷積
【深度學(xué)習(xí)Week3】ResNet+ResNeXt,2023新征程,深度學(xué)習(xí),人工智能

Ⅱ.論文閱讀

Aggregated Residual Transformations for Deep Neural Networks, CVPR 2017
Aggregated Residual Transformations for Deep Neural Networks(論文翻譯)
【論文閱讀】Aggregated Residual Transformations for Deep Neural Networks Saining(ResNext)

現(xiàn)代的網(wǎng)絡(luò)設(shè)計(jì)中通常會(huì)次堆疊類似結(jié)構(gòu),從而減少網(wǎng)絡(luò)中超參數(shù)的數(shù)量,簡(jiǎn)化網(wǎng)絡(luò)設(shè)計(jì)。

Inception使用了split-transform-merge策略,即先將輸入分成幾部分,然后分別做不同的運(yùn)算,最后再合并到一起。這樣可以在保持模型表達(dá)能力的情況下降低運(yùn)算代價(jià)。但是Inception的結(jié)構(gòu)還是過于復(fù)雜了。

本文中提出了一個(gè)簡(jiǎn)單的架構(gòu),它采用了 VGG/ResNets 的重復(fù)層策略,同時(shí)以一種簡(jiǎn)單、可擴(kuò)展的方式利用了 split-transform-merge 策略。網(wǎng)絡(luò)中的一個(gè)模塊執(zhí)行一組轉(zhuǎn)換,每個(gè)轉(zhuǎn)換都在一個(gè)低維嵌入上,其輸出通過求和聚合現(xiàn)——要聚合的變換都是相同的拓?fù)浣Y(jié)構(gòu)(例如,圖 1(右))。這種設(shè)計(jì)允許我們?cè)跊]有專門設(shè)計(jì)的情況下擴(kuò)展到任何大量的轉(zhuǎn)換。這種結(jié)構(gòu)可以在保持網(wǎng)絡(luò)的計(jì)算量和參數(shù)尺寸的情況下,提高分類精度。

三、貓狗大戰(zhàn)

貓狗大戰(zhàn)–經(jīng)典圖像分類題 - AI算法競(jìng)賽-AI研習(xí)社
使用ResNet進(jìn)行貓狗大戰(zhàn)
使用Google的Colab+pytorch
Google Colab 中運(yùn)行自己的py文件

Lenet網(wǎng)絡(luò)

【深度學(xué)習(xí)Week3】ResNet+ResNeXt,2023新征程,深度學(xué)習(xí),人工智能

Resnet網(wǎng)絡(luò)

【深度學(xué)習(xí)Week3】ResNet+ResNeXt,2023新征程,深度學(xué)習(xí),人工智能

四、思考題

1、Residual learning 的基本原理?

Residual learning的基本原理是通過引入殘差連接,讓神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)殘差,而不是直接學(xué)習(xí)映射函數(shù)。這樣可以解決深層網(wǎng)絡(luò)訓(xùn)練中的退化問題。

2、Batch Normailization 的原理,思考 BN、LN、IN 的主要區(qū)別。

Batch Normalization(批歸一化)的原理是通過在網(wǎng)絡(luò)的每個(gè)層輸入前對(duì)其進(jìn)行歸一化,使得輸入的均值接近于0,標(biāo)準(zhǔn)差接近于1。這有助于緩解梯度消失問題,加速訓(xùn)練過程,并且可以允許使用更高的學(xué)習(xí)率。

主要區(qū)別如下:

BN(Batch Normalization):對(duì)每個(gè)Batch的數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化,使其均值為0,方差為1。該方法在網(wǎng)絡(luò)訓(xùn)練時(shí)對(duì)每個(gè)batch的數(shù)據(jù)都進(jìn)行標(biāo)準(zhǔn)化,且歸一化的均值和方差不固定,是最常用的一種批標(biāo)準(zhǔn)化方法。

LN(Layer Normalization):對(duì)每一層的數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化,使其均值為0,方差為1。LN不采用批次維度計(jì)算均值和方差,而是將整個(gè)層的數(shù)據(jù)作為一個(gè)標(biāo)準(zhǔn)化的對(duì)象。

IN(Instance Normalization):對(duì)每個(gè)樣本的每個(gè)通道的數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化,使其均值為0,方差為1。IN是針對(duì)圖像生成任務(wù)提出的一種標(biāo)準(zhǔn)化方法,將每個(gè)樣本的所有像素點(diǎn)作為標(biāo)準(zhǔn)化的對(duì)象,對(duì)每個(gè)通道的數(shù)據(jù)進(jìn)行歸一化。

3、為什么分組卷積可以提升準(zhǔn)確率?即然分組卷積可以提升準(zhǔn)確率,同時(shí)還能降低計(jì)算量,分?jǐn)?shù)數(shù)量盡量多不行嗎?

分組卷積將輸入分成多個(gè)組,每組內(nèi)部進(jìn)行卷積運(yùn)算,可以減少卷積層參數(shù)數(shù)量。 此外,將卷積層的輸入分成多個(gè)組,可以讓不同組之間學(xué)習(xí)不同的特征表示,提取更多的信息。

過多的分組會(huì)導(dǎo)致每個(gè)子組的特征表達(dá)能力不足,不利于關(guān)鍵特征的提取,從而降低準(zhǔn)確率。文章來源地址http://www.zghlxwxcb.cn/news/detail-614068.html

到了這里,關(guān)于【深度學(xué)習(xí)Week3】ResNet+ResNeXt的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 劍指offer題解合集——Week3day4

    題目鏈接:二叉樹的鏡像 AC代碼 思路: 整體思路 題目鏈接:對(duì)稱的二叉樹 AC代碼 思路: 整體思路

    2024年02月02日
    瀏覽(16)
  • 深度學(xué)習(xí)第J6周:ResNeXt-50實(shí)戰(zhàn)解析

    深度學(xué)習(xí)第J6周:ResNeXt-50實(shí)戰(zhàn)解析

    目錄 一、模型結(jié)構(gòu)介紹 二、前期準(zhǔn)備 三、模型 ?三、訓(xùn)練運(yùn)行 3.1訓(xùn)練 3.2指定圖片進(jìn)行預(yù)測(cè) ?? 本文為[??365天深度學(xué)習(xí)訓(xùn)練營(yíng)]內(nèi)部限免文章(版權(quán)歸 *K同學(xué)啊* 所有) ?? 作者:[K同學(xué)啊] ??? 本周任務(wù): ●閱讀ResNeXt論文,了解作者的構(gòu)建思路 ●對(duì)比我們之前介紹的Res

    2024年02月04日
    瀏覽(18)
  • 深度學(xué)習(xí)第J7周:ResNeXt-50算法思考

    深度學(xué)習(xí)第J7周:ResNeXt-50算法思考

    目錄 一、問題 二、思考分析 ?? 本文為[??365天深度學(xué)習(xí)訓(xùn)練營(yíng)]內(nèi)部限免文章(版權(quán)歸 *K同學(xué)啊* 所有) ?? 作者:[K同學(xué)啊] ?查看j6周代碼,思考解決問題。 ??你需要解決的疑問:這個(gè)代碼是否有錯(cuò)?對(duì)錯(cuò)與否都請(qǐng)給出你的思考 ??打卡要求:請(qǐng)查找相關(guān)資料、逐步推理模

    2023年04月24日
    瀏覽(21)
  • 【W(wǎng)EEK3】 【DAY3】JSON交互處理第二部分【中文版】

    【W(wǎng)EEK3】 【DAY3】JSON交互處理第二部分【中文版】

    2024.3.13 Wednesday 接上文【W(wǎng)EEK3】 【DAY2】JSON交互處理第一部分【中文版】 上一種方法比較麻煩,如果項(xiàng)目中有許多請(qǐng)求則每一個(gè)都要添加,可以通過Spring配置統(tǒng)一指定,這樣就不用每次都處理亂碼了。可以在springmvc的配置文件上添加一段消息StringHttpMessageConverter轉(zhuǎn)換配置。 修

    2024年04月08日
    瀏覽(19)
  • 【北郵國(guó)院大三下】Cybersecurity Law 網(wǎng)絡(luò)安全法 Week3

    【北郵國(guó)院大三下】Cybersecurity Law 網(wǎng)絡(luò)安全法 Week3

    北郵國(guó)院大三電商在讀,隨課程進(jìn)行整理知識(shí)點(diǎn)。僅整理PPT中相對(duì)重要的知識(shí)點(diǎn),內(nèi)容駁雜并不做期末突擊復(fù)習(xí)用。個(gè)人認(rèn)為相對(duì)不重要的細(xì)小的知識(shí)點(diǎn)不列在其中。如有錯(cuò)誤請(qǐng)指出。轉(zhuǎn)載請(qǐng)注明出處,祝您學(xué)習(xí)愉快。 編輯軟件為Effie,如需要pdf/docx/effiesheet/markdown格式的文件

    2024年02月11日
    瀏覽(23)
  • 【W(wǎng)EEK3】 【DAY2】JSON交互處理第一部分【中文版】

    【W(wǎng)EEK3】 【DAY2】JSON交互處理第一部分【中文版】

    2024.3.12 Tuesday JSON (JavaScript Object Notation, JS 對(duì)象標(biāo)記) 是一種 輕量級(jí)的數(shù)據(jù)交換格式 ,目前使用特別廣泛。 采用完全獨(dú)立于編程語(yǔ)言的文本格式來存儲(chǔ)和表示數(shù)據(jù)。 簡(jiǎn)潔和清晰的層次結(jié)構(gòu)使得 JSON 成為理想的數(shù)據(jù)交換語(yǔ)言。 易于人閱讀和編寫,同時(shí)也易于機(jī)器解析和生成,

    2024年03月20日
    瀏覽(25)
  • 前端架構(gòu)師-week3-Node項(xiàng)目如何支持ES Module

    目錄 方案一: 通過 webpack 完成 ES Module 資源構(gòu)建 通過 webpack target 屬性支持 Node 內(nèi)置庫(kù) webpack loader 配置 babel-loader 支持低版本 Node? 方案二: 通過Node原生支持ES Module Node 支持 ES Module 的兩種方法 總結(jié) ? ? 根目錄下創(chuàng)建 webpack.config.js

    2024年02月06日
    瀏覽(23)
  • 深度學(xué)習(xí) Day27——J6ResNeXt-50實(shí)戰(zhàn)解析

    深度學(xué)習(xí) Day27——J6ResNeXt-50實(shí)戰(zhàn)解析

    ?? 本文為??365天深度學(xué)習(xí)訓(xùn)練營(yíng) 中的學(xué)習(xí)記錄博客 ?? 原作者:K同學(xué)啊 | 接輔導(dǎo)、項(xiàng)目定制 ?? 文章來源:K同學(xué)的學(xué)習(xí)圈子 : pytorch實(shí)現(xiàn)ResNeXt50詳解算法,tensorflow實(shí)現(xiàn)ResNeXt50詳解算法,ResNeXt50詳解 電腦系統(tǒng):Windows 11 語(yǔ)言環(huán)境:python 3.8.6 編譯器:pycharm2020.2.3 深度

    2024年01月24日
    瀏覽(26)
  • 大象機(jī)器人人工智能套裝2023版深度學(xué)習(xí)協(xié)作機(jī)器人、先進(jìn)機(jī)器視覺與應(yīng)用場(chǎng)景

    大象機(jī)器人人工智能套裝2023版深度學(xué)習(xí)協(xié)作機(jī)器人、先進(jìn)機(jī)器視覺與應(yīng)用場(chǎng)景

    介紹當(dāng)前的版本 今天我們要介紹的是aikit2023,aikit2023是aikit的全新升級(jí)版。 AIkit 2023 是一套集視覺,定位抓取、自動(dòng)分揀模塊為一體的入門級(jí)人工智能套裝。 該套裝基于python平臺(tái),可通過開發(fā)軟件實(shí)現(xiàn)機(jī)械臂的控制,簡(jiǎn)單易學(xué),能夠快速入門學(xué)習(xí)人工智能基礎(chǔ)知識(shí),啟發(fā)創(chuàng)新

    2024年02月13日
    瀏覽(34)
  • 人工智能學(xué)習(xí)07--pytorch14--ResNet網(wǎng)絡(luò)/BN/遷移學(xué)習(xí)詳解+pytorch搭建

    人工智能學(xué)習(xí)07--pytorch14--ResNet網(wǎng)絡(luò)/BN/遷移學(xué)習(xí)詳解+pytorch搭建

    亮點(diǎn):網(wǎng)絡(luò)結(jié)構(gòu)特別深 (突變點(diǎn)是因?yàn)閷W(xué)習(xí)率除0.1?) 梯度消失 :假設(shè)每一層的誤差梯度是一個(gè)小于1的數(shù),則在反向傳播過程中,每向前傳播一層,都要乘以一個(gè)小于1的誤差梯度。當(dāng)網(wǎng)絡(luò)越來越深的時(shí)候,相乘的這些小于1的系數(shù)越多,就越趨近于0,這樣梯度就會(huì)越來越小

    2023年04月11日
    瀏覽(783)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包