国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解

這篇具有很好參考價(jià)值的文章主要介紹了CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能


?文章來源地址http://www.zghlxwxcb.cn/news/detail-612884.html

概要

?

在圖像處理領(lǐng)域,CNN(卷積神經(jīng)網(wǎng)絡(luò))處于絕對(duì)統(tǒng)治地位,但對(duì)于CNN具體是如何用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的,能找到的介紹要么是一大堆數(shù)學(xué)公式,要么是大段晦澀的文字說明,讀起來很是辛苦,想寫好一片完整的而且有深度的文章出來非常難,所以本文適合入門的朋友對(duì)CNN的學(xué)習(xí)和了解。

?

CNN主要思路快速回顧

為了便于大家理解,這里簡單回顧一下CNN的主要思路:對(duì)于一張M *?N像素的圖,我們用一個(gè)大小為?S?*?S(如3 * 3)的特征提取器,掃描整個(gè)圖片,強(qiáng)化圖片的重要特征,忽略不重要的細(xì)節(jié),得到一個(gè)強(qiáng)化了特征的新圖:

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

?不斷遞歸上述過程,就可以逐漸從細(xì)節(jié)特征(如線條、紋理)中提取出高級(jí)特征(如器官、物種),最終完成各種圖像處理任務(wù)。

圖解CNN的神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)過程

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

假設(shè)我們有一張3 * 3的圖,圖中每個(gè)像素用一個(gè)字母表示:

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

?我們的特征提取器為一個(gè)2 * 2的矩陣,矩陣每個(gè)元素是一個(gè)希臘字母:

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

?用特征提取器處理后的圖片為:

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

?其詳細(xì)工作過程如下:

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

?上述工作過程可以表達(dá)為以下等式:

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

?注意上述等式中的bias參數(shù)b在4個(gè)等式中都是一樣的,可以把b理解為特征提取器的一部分,就像權(quán)重參數(shù)(α, β, γ, δ)是特征提取器的一部分一樣。

上述等式更緊湊的寫法為:

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

?上述寫法可以直接表示為一個(gè)神經(jīng)網(wǎng)絡(luò)(連接線對(duì)應(yīng)權(quán)重α, β, γ, δ):

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

?神經(jīng)元的激活過程就是權(quán)重矩陣和輸入矩陣的乘積:

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

?這里有兩個(gè)要注意的點(diǎn):

  • 灰色格子的0,代表不可訓(xùn)練的參數(shù),它們?cè)谡麄€(gè)訓(xùn)練過程中始終為0

  • 剩下可訓(xùn)練的參數(shù)中,很多參數(shù)取值是保持相同的,這叫做"共享權(quán)重"

權(quán)重矩陣的每一行,代表了在圖片上對(duì)特征過濾器的一次應(yīng)用,其中的0表示這次應(yīng)用不會(huì)覆蓋的像素。

假設(shè)我們把取值為0的權(quán)重也補(bǔ)充到上面的神經(jīng)網(wǎng)絡(luò)圖中(用灰色的線表示0權(quán)重),就可以得到一個(gè)經(jīng)典的、全連接的神經(jīng)網(wǎng)絡(luò)圖:

?

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

?去掉顏色和字母,就和熟悉的神經(jīng)網(wǎng)絡(luò)示意圖一模一樣了:

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

?上面,我們用一個(gè)2 * 2的特征提取器把一個(gè)3 * 3的圖變成了一個(gè)2 * 2的圖,通過zero-padding和一個(gè)3 * 3的特征提取器,我們就可以保持圖片大小不變:

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

?其工作過程如下:

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

?而如果不應(yīng)用zero-padding,則我們只能得到一個(gè)1 * 1的結(jié)果圖:

CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解,神經(jīng)網(wǎng)絡(luò),人工智能

?

以上就是CNN落地實(shí)現(xiàn)為神經(jīng)網(wǎng)絡(luò)的過程,歡迎大家閱讀,感謝??。

?

到了這里,關(guān)于CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 人工智能之卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    人工智能之卷積神經(jīng)網(wǎng)絡(luò)(CNN)

    前言:今天我們重點(diǎn)探討一下卷積神經(jīng)網(wǎng)絡(luò)(CNN)算法。 _ 20世紀(jì)60年代,Hubel和Wiesel在研究貓腦皮層中用于局部敏感和方向選擇的神經(jīng)元時(shí)發(fā)現(xiàn)其獨(dú)特的網(wǎng)絡(luò)結(jié)構(gòu)可以有效地降低反饋神經(jīng)網(wǎng)絡(luò)的復(fù)雜性,繼而提出了卷積神經(jīng)網(wǎng)絡(luò)CNN(Convolutional Neural Networks)。 1980年,K.Fukushima提

    2024年02月20日
    瀏覽(19)
  • 人工智能卷積神經(jīng)網(wǎng)絡(luò),CNN,梯度下降

    人工智能卷積神經(jīng)網(wǎng)絡(luò),CNN,梯度下降

    CNN,是針對(duì)圖像領(lǐng)域提出的神經(jīng)網(wǎng)絡(luò)。 得出的結(jié)論: 神經(jīng)元存在局部感受區(qū)域,也稱 感受野 細(xì)胞對(duì)角度有選擇性 如細(xì)胞對(duì)垂直光條響應(yīng)最強(qiáng) 細(xì)胞對(duì)運(yùn)動(dòng)方向有選擇性 1.視覺系統(tǒng)是分層,分級(jí)處理的。從低到高堆疊使用卷積和池化。 2.神經(jīng)系統(tǒng)是存在局部感受區(qū)域的。 第一

    2024年02月01日
    瀏覽(19)
  • 人工智能:CNN(卷積神經(jīng)網(wǎng)絡(luò))、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))、DNN(深度神經(jīng)網(wǎng)絡(luò))的知識(shí)梳理

    卷積神經(jīng)網(wǎng)絡(luò)(CNN),也被稱為ConvNets或Convolutional Neural Networks,是一種深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)架構(gòu),主要用于處理和分析具有網(wǎng)格狀結(jié)構(gòu)的數(shù)據(jù),特別是圖像和視頻數(shù)據(jù)。CNN 在計(jì)算機(jī)視覺任務(wù)中表現(xiàn)出色,因?yàn)樗鼈兡軌蛴行У夭东@和識(shí)別圖像中的特征,具有平移不變性(transla

    2024年02月05日
    瀏覽(41)
  • CNN卷積神經(jīng)網(wǎng)絡(luò)之反向傳播過程

    我們假設(shè)卷積運(yùn)算如下(其中couv代表卷積運(yùn)算,w是卷集核的數(shù)據(jù),卷積核為2*2,b為偏置數(shù))。建設(shè)上一層輸出的特征圖是 3 ? 3 3*3 3 ? 3 ,經(jīng)過卷積運(yùn)算以及加上偏置結(jié)果如下: [ a 11 l ? 1 a 12 l ? 1 a 13 l ? 1 a 21 l ? 1 a 22 l ? 1 a 23 l ? 1 a 31 l ? 1 a 32 l ? 1 a 33 l ? 1 ] c o u v

    2024年02月13日
    瀏覽(19)
  • 【人工智能與機(jī)器學(xué)習(xí)】基于卷積神經(jīng)網(wǎng)絡(luò)CNN的貓狗識(shí)別

    【人工智能與機(jī)器學(xué)習(xí)】基于卷積神經(jīng)網(wǎng)絡(luò)CNN的貓狗識(shí)別

    很巧,筆者在幾月前的計(jì)算機(jī)設(shè)計(jì)大賽作品設(shè)計(jì)中也采用了貓狗識(shí)別,目前已推國賽評(píng)選中 但當(dāng)時(shí)所使用的方法與本次作業(yè)要求不太一致,又重新做了一遍,下文將以本次作業(yè)要求為主,介紹CNN卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)貓狗識(shí)別 貓狗識(shí)別和狗品種識(shí)別是計(jì)算機(jī)視覺領(lǐng)域中一個(gè)重要

    2024年02月13日
    瀏覽(45)
  • 卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)詳細(xì)介紹及其原理詳解

    ??本文總結(jié)了關(guān)于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的一些基礎(chǔ)的概念,并且對(duì)于其中的細(xì)節(jié)進(jìn)行了詳細(xì)的原理講解,通過此文可以十分全面的了解卷積神經(jīng)網(wǎng)絡(luò)(CNN),非常適合于作為Deep Learning的入門學(xué)習(xí)。下面就是本篇博客的全部內(nèi)容! ??卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, C

    2024年02月08日
    瀏覽(22)
  • 卷積神經(jīng)網(wǎng)絡(luò)(CNN)實(shí)現(xiàn)圖像分類——Python

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)實(shí)現(xiàn)圖像分類——Python

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)實(shí)現(xiàn)圖像分類——Python 輸入 1 測(cè)試一張圖片并預(yù)測(cè)結(jié)果 輸入 2 對(duì)測(cè)試集整體進(jìn)行測(cè)試,得出準(zhǔn)確率(10秒左右) 輸入其他數(shù)字自動(dòng)退出程序 本程序包含python庫較多,請(qǐng)自行配置(pip), 如有需求,請(qǐng)?jiān)u論或私信 ! 回復(fù)其他數(shù)字會(huì)自動(dòng)退出程序 輸入圖片

    2024年02月06日
    瀏覽(22)
  • 【深度學(xué)習(xí)】6-4 卷積神經(jīng)網(wǎng)絡(luò) - CNN的實(shí)現(xiàn)

    【深度學(xué)習(xí)】6-4 卷積神經(jīng)網(wǎng)絡(luò) - CNN的實(shí)現(xiàn)

    CNN的實(shí)現(xiàn) 網(wǎng)絡(luò)的構(gòu)成是“Convolution - ReLU - Pooling -Affine - ReLU - Affine - Softmax”,我們將它實(shí)現(xiàn)為名為 SimpleConvNet 的類。 首先來看一下 SimpleConvNet的初始化( init ),取下面這些參數(shù)。 input_dim——輸入數(shù)據(jù)的維度:(通道,高,長) conv_param——卷積層的超參數(shù)(字典)。字典的

    2024年02月10日
    瀏覽(29)
  • matlab實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)CNN(二)——代碼實(shí)現(xiàn)與解析

    ????????基于上一篇文章對(duì)于CNN網(wǎng)絡(luò)結(jié)構(gòu)的整理,我們將用matlab實(shí)現(xiàn)一維數(shù)據(jù)的CNN網(wǎng)絡(luò)單多輸入和單多輸出。 ? ? ? ? 文中字母含義詳情可見上一篇文章。 ????????data數(shù)據(jù)格式應(yīng)為 M×SN ;M為一維數(shù)據(jù)的長度(即一個(gè)樣本有多少個(gè)點(diǎn)),由于是一維數(shù)據(jù),所以寬度

    2024年02月05日
    瀏覽(23)
  • CNN卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)手寫數(shù)字識(shí)別(基于tensorflow)

    CNN卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)手寫數(shù)字識(shí)別(基于tensorflow)

    卷積網(wǎng)絡(luò)的 核心思想 是將: 局部感受野 權(quán)值共享(或者權(quán)值復(fù)制) 時(shí)間或空間亞采樣 卷積神經(jīng)網(wǎng)絡(luò) (Convolutional Neural Networks,簡稱: CNN )是深度學(xué)習(xí)當(dāng)中一個(gè)非常重要的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。它主要用于用在 圖像圖片處理 , 視頻處理 , 音頻處理 以及 自然語言處理 等等。

    2024年02月11日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包