国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深度學(xué)習(xí)之卷積神經(jīng)網(wǎng)絡(luò)(CNN)

這篇具有很好參考價(jià)值的文章主要介紹了深度學(xué)習(xí)之卷積神經(jīng)網(wǎng)絡(luò)(CNN)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

? ? ? 大家好,我是帶我去滑雪!

? ? ? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種基于深度學(xué)習(xí)的前饋神經(jīng)網(wǎng)絡(luò),主要用于圖像視頻識(shí)別、分類分割標(biāo)注等計(jì)算機(jī)視覺(jué)任務(wù)。它主要由卷積層池化層、全連接層激活函數(shù)層等組成。其中,卷積層通過(guò)一組卷積核(權(quán)值矩陣)提取輸入圖像的不同特征、對(duì)其進(jìn)行特征提取和抽象;池化層則通過(guò)降采樣的方式減小特征圖的大小,提高模型的泛化能力;全連接層則負(fù)責(zé)將卷積層和池化層的輸出映射到模型最后的分類結(jié)果上。最后,激活函數(shù)層利用非線性變換使模型更加具有表達(dá)能力和擬合能力。下面依次學(xué)習(xí)關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的相關(guān)知識(shí)。

目錄

1、認(rèn)識(shí)圖像數(shù)據(jù)

2、卷積運(yùn)算與池化運(yùn)算

(1)卷積運(yùn)算? ? ??

(2)池化運(yùn)算

3、卷積神經(jīng)網(wǎng)絡(luò)的處理過(guò)程

4、卷積層

(1)局部連接

(2)權(quán)重共享

5、多維數(shù)據(jù)的卷積層輸入與輸出

6、Dropout層


1、認(rèn)識(shí)圖像數(shù)據(jù)

? ? ? 位圖是一種圖像文件格式,也叫做柵格圖像(Raster Image),它是由象素組成的圖像。簡(jiǎn)單來(lái)說(shuō),一個(gè)位圖就是由很多個(gè)像素點(diǎn)組成的。每個(gè)像素點(diǎn)可以保存圖像中的顏色信息和位置信息,其大小和位數(shù)決定著位圖的清晰度和占用的存儲(chǔ)空間。 在位圖圖像中,每個(gè)像素點(diǎn)只能表示一種顏色,且顏色深度是固定的。由于是由固定數(shù)量的像素點(diǎn)組成的,所以縮放、旋轉(zhuǎn)等圖像變換會(huì)使圖像出現(xiàn)鋸齒等失真現(xiàn)象。位圖通常用于存儲(chǔ)比較簡(jiǎn)單的圖形、圖標(biāo)、照片等,常見(jiàn)的位圖格式有BMP、JPEG、GIF、PNG等。

? ? ?卷積神經(jīng)網(wǎng)絡(luò)處理的就是位圖,位圖類似矩陣,每一個(gè)像素是矩陣中的一個(gè)元素,依據(jù)像素色彩分為兩種:

  • 黑白圖:每一個(gè)像素的元素值為0~255的灰度值;
  • 彩色圖:每一個(gè)像素的元素值為RGB紅藍(lán)綠三原色值的向量,稱為通道,三個(gè)值的范圍均為0~255,其中黑色為[0,0,0],白色為[255,255,255],紅色為[255,0,0],綠色為[0,255,0],藍(lán)色為[0,0,255]。

? ? ? 卷積神經(jīng)網(wǎng)絡(luò)是模仿人腦視覺(jué),使用特征來(lái)識(shí)別圖片,下面學(xué)習(xí)卷積運(yùn)算和池化運(yùn)算。

2、卷積運(yùn)算與池化運(yùn)算

(1)卷積運(yùn)算? ? ??

? ? ? 卷積運(yùn)算(Convolutional operation):卷積運(yùn)算是指利用卷積核在圖像或特征圖上進(jìn)行卷積操作,得到一系列新的卷積特征圖。卷積核通常是一個(gè)小的矩陣,它在原始圖像上按照步長(zhǎng)移動(dòng),并與圖片像素一一對(duì)應(yīng)地相乘并求和,最終將卷積核的所有結(jié)果匯總在一起形成一個(gè)新的特征圖。卷積運(yùn)算通過(guò)不斷地提取特征,將圖像或特征圖逐漸壓縮和減小,使得后續(xù)的神經(jīng)網(wǎng)絡(luò)處理更加高效。

(2)池化運(yùn)算

? ? ? ?池化運(yùn)算(Pooling operation):池化運(yùn)算是對(duì)卷積特征圖進(jìn)行壓縮或減小的一種操作,通常使用的是最大池化或平均池化,即在每個(gè)小的窗口內(nèi)求取最大值或平均值,并將這個(gè)值作為該窗口的池化結(jié)果,池化運(yùn)算一樣采用滑動(dòng)窗格。池化運(yùn)算可以降低特征圖的數(shù)據(jù)量,減少運(yùn)算量,防止過(guò)擬合,同時(shí)能保留特征圖的主要特征,使得神經(jīng)網(wǎng)絡(luò)更加易于訓(xùn)練和泛化。

? ? ? 卷積和池化在卷積神經(jīng)網(wǎng)絡(luò)中頻繁使用,它們相輔相成,相互配合,共同完成圖像特征的提取和抽取。

3、卷積神經(jīng)網(wǎng)絡(luò)的處理過(guò)程

? ? ?卷積神經(jīng)網(wǎng)絡(luò)的處理過(guò)程:

深度學(xué)習(xí)之卷積神經(jīng)網(wǎng)絡(luò)(CNN)

? ? ? 卷積神經(jīng)網(wǎng)絡(luò)到底學(xué)習(xí)什么呢?卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)卷積層的權(quán)重,即濾波器,首先使用隨機(jī)數(shù)初始化濾波器的矩陣內(nèi)容,然后使用正向和反向傳播學(xué)習(xí)權(quán)重后,濾波器可以自動(dòng)識(shí)別圖片所需提取的特征。

4、卷積層

? ? ? ?卷積神經(jīng)網(wǎng)絡(luò)的卷積層,是卷積神經(jīng)網(wǎng)絡(luò)的主要組成部分之一,也是卷積神經(jīng)網(wǎng)絡(luò)中最核心的層之一。卷積層的操作是將位圖原來(lái)點(diǎn)對(duì)點(diǎn)的全域比對(duì),轉(zhuǎn)換為濾波器較小范圍的局部對(duì)比,通過(guò)局部小范圍一塊一塊的特征研判來(lái)綜合出識(shí)別的結(jié)果。

? ? ? 卷積層和全連接層有合不同:

  • 在卷積神經(jīng)網(wǎng)絡(luò)中,使用全連接層,神經(jīng)網(wǎng)絡(luò)的參數(shù)量過(guò)大;
  • 卷積層相比于全連接層,可以實(shí)現(xiàn)局部連接與權(quán)重共享;

(1)局部連接

? ? ? ?卷積神經(jīng)網(wǎng)絡(luò)使用局部連接,從局部擴(kuò)展至全域,一個(gè)一個(gè)小區(qū)域去認(rèn)識(shí),通過(guò)從各個(gè)小區(qū)域得到局部特征后,然后匯總局部特征得到完整的全域信息。

(2)權(quán)重共享

? ? ? ?權(quán)重共享是指每一個(gè)局部連接的神經(jīng)元都使用相同的權(quán)重,使用權(quán)重共享后神經(jīng)網(wǎng)絡(luò)的參數(shù)個(gè)數(shù)將會(huì)大大下降。

5、多維數(shù)據(jù)的卷積層輸入與輸出

(1)卷積層的輸入通道數(shù)根據(jù)圖片而定,彩色圖的通道數(shù)為3,灰度圖的通道數(shù)為1。

(2)濾波器的通道數(shù)和卷積層的輸入通道數(shù)相同。

(3)卷積層的輸出通道數(shù)需根據(jù)濾波器的數(shù)量而定,而卷積層的輸出通道就是下一層卷積層的輸入通道數(shù)。

6、Dropout層

? ? ?? Dropout層是神經(jīng)網(wǎng)絡(luò)的一種優(yōu)化方法,可以在不增加訓(xùn)練數(shù)據(jù)集的情況下,對(duì)抗過(guò)擬合問(wèn)題。Dropout層的目的是在損失函數(shù)中加入隨機(jī)性,破壞各層神經(jīng)元之間的共適性來(lái)修正前一層神經(jīng)層學(xué)習(xí)方向的錯(cuò)誤,能夠讓預(yù)測(cè)模型更加強(qiáng)壯,并提升預(yù)測(cè)模型的泛化性。

更多優(yōu)質(zhì)內(nèi)容持續(xù)發(fā)布中,請(qǐng)移步主頁(yè)查看。

若有問(wèn)題可郵箱聯(lián)系:1736732074@qq.com?

博主的WeChat:TCB1736732074

? ?點(diǎn)贊+關(guān)注,下次不迷路!文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-451603.html

到了這里,關(guān)于深度學(xué)習(xí)之卷積神經(jīng)網(wǎng)絡(luò)(CNN)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【人工智能】— 深度神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、多卷積核、全連接、池化

    【人工智能】— 深度神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、多卷積核、全連接、池化

    Pre-training + Fine-tuning Pre-training(預(yù)訓(xùn)練) : 監(jiān)督逐層訓(xùn)練是多隱層網(wǎng)絡(luò)訓(xùn)練的有效手段, 每次訓(xùn)練一層隱層結(jié)點(diǎn), 訓(xùn)練時(shí)將上一層隱層結(jié)點(diǎn)的輸出作為輸入, 而本層隱結(jié)點(diǎn)的輸出作為下一層隱結(jié)點(diǎn)的輸入, 這稱為”預(yù)訓(xùn)練”. Fine-tuning(微調(diào)) : 在預(yù)訓(xùn)練全部完成后, 再對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行

    2024年02月10日
    瀏覽(48)
  • 深度學(xué)習(xí)03-卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    深度學(xué)習(xí)03-卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    CNN,即卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network),是一種常用于圖像和視頻處理的深度學(xué)習(xí)模型。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,CNN 有著更好的處理圖像和序列數(shù)據(jù)的能力,因?yàn)樗軌蜃詣?dòng)學(xué)習(xí)圖像中的特征,并提取出最有用的信息。 CNN 的一個(gè)核心特點(diǎn)是卷積操作,它可以在圖像上進(jìn)

    2024年02月05日
    瀏覽(25)
  • 深度學(xué)習(xí)1.卷積神經(jīng)網(wǎng)絡(luò)-CNN

    深度學(xué)習(xí)1.卷積神經(jīng)網(wǎng)絡(luò)-CNN

    目錄 卷積神經(jīng)網(wǎng)絡(luò) – CNN CNN 解決了什么問(wèn)題? 需要處理的數(shù)據(jù)量太大 保留圖像特征 人類的視覺(jué)原理 卷積神經(jīng)網(wǎng)絡(luò)-CNN 的基本原理 卷積——提取特征 池化層(下采樣)——數(shù)據(jù)降維,避免過(guò)擬合 全連接層——輸出結(jié)果 CNN 有哪些實(shí)際應(yīng)用? 總結(jié) 百度百科+維基百科 卷積層

    2024年02月11日
    瀏覽(28)
  • 深度學(xué)習(xí)入門(三):卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    深度學(xué)習(xí)入門(三):卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    給定一張圖片,計(jì)算機(jī)需要模型判斷圖里的東西是什么? (car、truck、airplane、ship、horse) CONV:卷積計(jì)算層,線性乘積求和 RELU:激勵(lì)層,激活函數(shù) POOL:池化層,取區(qū)域平均或最大(MAX POOL) PC:全連接層 對(duì)CNN來(lái)說(shuō),它是一塊一塊進(jìn)行對(duì)比的,“小塊”稱之為Features特征。

    2024年02月11日
    瀏覽(37)
  • 深度學(xué)習(xí)入門教學(xué)——卷積神經(jīng)網(wǎng)絡(luò)CNN

    深度學(xué)習(xí)入門教學(xué)——卷積神經(jīng)網(wǎng)絡(luò)CNN

    1、應(yīng)用領(lǐng)域 檢測(cè)任務(wù) 分類與檢索 超分辨率重構(gòu) 2、卷積網(wǎng)絡(luò)與傳統(tǒng)網(wǎng)咯的區(qū)別 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)都是用來(lái) 提取特征 的。 神經(jīng)網(wǎng)絡(luò): 可以將其看作是一個(gè)二維的。 卷積神經(jīng)網(wǎng)絡(luò): 可以將其看作是一個(gè)三維的。 ?3、整體框架 該層主要是對(duì)原始圖像數(shù)據(jù)進(jìn)行預(yù)處

    2024年02月10日
    瀏覽(25)
  • Inception 深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)架構(gòu)

    Inception 深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)架構(gòu)

    Inception是一種深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)架構(gòu),由Google在2014年提出。它是一種基于多尺度卷積的網(wǎng)絡(luò)結(jié)構(gòu),旨在解決傳統(tǒng)CNN在處理不同大小的輸入圖像時(shí)存在的問(wèn)題。 Inception的主要特點(diǎn)是使用了多個(gè)不同尺度的卷積核來(lái)提取不同尺度的特征。這些卷積核可以并行地應(yīng)用于輸入

    2024年02月12日
    瀏覽(35)
  • 【深度學(xué)習(xí)】最強(qiáng)算法之:卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    【深度學(xué)習(xí)】最強(qiáng)算法之:卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    小屌絲 :魚(yú)哥, 看下這個(gè)流程圖,我沒(méi)看明白 小魚(yú) :啥流程圖。 小屌絲 :你看,就是這個(gè)。 小魚(yú) :嗯,不錯(cuò),不錯(cuò)。 小屌絲 :能不能給我講一講這個(gè)? 小魚(yú) :你要了解CNN ? 小屌絲 :CNN 是? 小魚(yú) :…你這… 深度學(xué)習(xí)知道嗎? 小屌絲 :知道啊 小魚(yú) :你都知道深度

    2024年04月09日
    瀏覽(27)
  • 【深度學(xué)習(xí)_TensorFlow】卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    【深度學(xué)習(xí)_TensorFlow】卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    這篇文章的行文思路如下: 先根據(jù)視頻了解卷積和卷積神經(jīng)網(wǎng)絡(luò)的整體框架 接著了解卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建過(guò)程中的一些重要操作,包括內(nèi)積、填充、池化。 然后介紹卷積層如何實(shí)現(xiàn)。 最后用卷積神經(jīng)網(wǎng)絡(luò)的開(kāi)山之作(LeNet-5)來(lái)進(jìn)行上手練習(xí)。 最近學(xué)習(xí)信號(hào)與系統(tǒng)的時(shí)候,了

    2024年02月07日
    瀏覽(97)
  • 深度學(xué)習(xí)入門——卷積神經(jīng)網(wǎng)絡(luò)CNN基本原理+實(shí)戰(zhàn)

    深度學(xué)習(xí)入門——卷積神經(jīng)網(wǎng)絡(luò)CNN基本原理+實(shí)戰(zhàn)

    ? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)技術(shù)中最基礎(chǔ)的網(wǎng)絡(luò)結(jié)構(gòu),模擬人腦工作,具備強(qiáng)大的特征學(xué)習(xí)能力。CNN結(jié)構(gòu)主要由兩部分組成:特征提取部分和分類部分color{blue}{特征提取部分和分類部分}特征提取部分和分類部分。特征提取部分網(wǎng)絡(luò)將執(zhí)行一系列

    2024年01月21日
    瀏覽(37)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包