国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

人工智能卷積神經(jīng)網(wǎng)絡(luò),CNN,梯度下降

這篇具有很好參考價(jià)值的文章主要介紹了人工智能卷積神經(jīng)網(wǎng)絡(luò),CNN,梯度下降。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

卷積神經(jīng)網(wǎng)絡(luò)

CNN,是針對(duì)圖像領(lǐng)域提出的神經(jīng)網(wǎng)絡(luò)。

貓的視覺(jué)系統(tǒng)實(shí)驗(yàn)

得出的結(jié)論:

  • 神經(jīng)元存在局部感受區(qū)域,也稱(chēng) 感受野
  • 細(xì)胞對(duì)角度有選擇性
    如細(xì)胞對(duì)垂直光條響應(yīng)最強(qiáng)
  • 細(xì)胞對(duì)運(yùn)動(dòng)方向有選擇性

對(duì)CNN的啟發(fā)

1.視覺(jué)系統(tǒng)是分層,分級(jí)處理的。從低到高堆疊使用卷積和池化。
2.神經(jīng)系統(tǒng)是存在局部感受區(qū)域的。

第一個(gè)神經(jīng)網(wǎng)絡(luò)

第一個(gè)卷積神經(jīng)網(wǎng)絡(luò)雛形 — 新認(rèn)知機(jī)

1980年,日本使用c和s兩個(gè)細(xì)胞堆疊使用,相當(dāng)于卷積和池化。

缺點(diǎn):沒(méi)有反向傳播更新權(quán)值。

第一個(gè)大型商用卷積神經(jīng)網(wǎng)絡(luò) — Lenet-5

1989年美國(guó),用于手寫(xiě)郵政編碼識(shí)別。

缺點(diǎn):沒(méi)有大規(guī)模數(shù)據(jù)和高性能計(jì)算。

第一個(gè)技驚四座的卷積神經(jīng)網(wǎng)絡(luò) – AlexNet

2012年,圖像領(lǐng)域霸主。

成功秘訣:
GPU

卷積層

圖像識(shí)別特點(diǎn)

1.特征具有局部性:如老虎”王“字
卷積核每次只鏈接K*K尺寸,相當(dāng)于卷積核尺寸大小

2.特征可能出現(xiàn)在任意位置

3.調(diào)整了圖片的尺寸,但是圖像識(shí)別目標(biāo)不會(huì)受到影響。

卷積核:

具可學(xué)習(xí)參數(shù)的算子,用于對(duì)輸入圖像進(jìn)行特征提取,輸出通常稱(chēng)為特征圖。
理解:

  • 可學(xué)習(xí)參數(shù)的算子:是指卷積核的權(quán)重,是在反向傳播過(guò)程中優(yōu)化學(xué)習(xí)的,能夠逐漸更好的提取圖像特征。
  • 輸出為特征圖:卷積操作的結(jié)果是特征圖,是通過(guò)在輸入圖像上面滑動(dòng)卷積核得到的。

2012年,AlexNet第一個(gè)卷積核呈現(xiàn)邊緣,頻率和色彩的特征。

填充

在輸入圖像周?chē)炜疹~外的行或者列

作用
使得卷積后的圖像尺寸不變,彌補(bǔ)特征圖像提取后邊界信息的丟失。

步幅

卷積核滑動(dòng)的行數(shù)和列數(shù),控制輸出特征圖大小,會(huì)被縮小1/s倍。

輸出圖像尺寸計(jì)算人工智能卷積神經(jīng)網(wǎng)絡(luò),CNN,梯度下降,人工智能,cnn,神經(jīng)網(wǎng)絡(luò)

多通道卷積

多通道卷積:RGB圖像是3hw的三維的數(shù)據(jù),第一個(gè)維度3表示通道數(shù)channel,一個(gè)卷積核是3-D張量,第一個(gè)維與輸入通道有關(guān)。
解釋?zhuān)?是通道數(shù),h是高度,w為寬度。
多通道卷積考慮了每個(gè)通道的信息。
一個(gè)卷積核是3-D張量:指的是每個(gè)卷積核都包括通道數(shù),高度和寬度的信息。

池化層

池化層的解釋

1.池化層也是一個(gè)特征圖,如下所示:人工智能卷積神經(jīng)網(wǎng)絡(luò),CNN,梯度下降,人工智能,cnn,神經(jīng)網(wǎng)絡(luò)

池化層一個(gè)像素就代表了前團(tuán)一片區(qū)域的像素值。
通過(guò)這種方式降低了圖像分辨率。
2.那前面的一個(gè)像素就代表了前團(tuán)一片區(qū)域的像素值怎么實(shí)現(xiàn)呢?

  • 取最大值,如上圖左邊所示
  • 取最小值,如上圖右邊所示
    3.輸出圖像的尺寸大小計(jì)算方式與卷積核計(jì)算方式相同。
    注意:池化層沒(méi)有學(xué)習(xí)參數(shù)。

池化的作用

1.緩解卷積層對(duì)位置的過(guò)度敏感。
2.減少冗余。
3.降低圖像分辨率,從而減少參數(shù)量。

CNN

卷積計(jì)算

卷積其實(shí)是將卷積核反轉(zhuǎn)180°之后的互相關(guān)操作,互相關(guān)就是最開(kāi)始的點(diǎn)乘。
人工智能卷積神經(jīng)網(wǎng)絡(luò),CNN,梯度下降,人工智能,cnn,神經(jīng)網(wǎng)絡(luò)

相乘后相加的到最后輸出圖像,取正方體的時(shí)候依次平移。
平移的距離是步長(zhǎng)。

CNN的超參數(shù)和參數(shù)

人工智能卷積神經(jīng)網(wǎng)絡(luò),CNN,梯度下降,人工智能,cnn,神經(jīng)網(wǎng)絡(luò)

CNN的代價(jià)函數(shù)

代價(jià)函數(shù)是指:?jiǎn)蝹€(gè)或者整體訓(xùn)練樣本與真實(shí)值之間的偏差。

交叉熵

交叉熵是一種代價(jià)函數(shù),通常越小代表模型預(yù)測(cè)和實(shí)際情況越一致。

CNN反向傳播-卷積層

反向傳播中的filter(過(guò)濾器)旋轉(zhuǎn)與卷積

最簡(jiǎn)單情況:
步長(zhǎng)為一,通道為一,過(guò)濾器為一。

情況2:
步長(zhǎng)為一,通道為D,過(guò)濾器為一。

  • 當(dāng)輸入的通道為D,則過(guò)濾器的通道也為D。

情況3:
步長(zhǎng)為一,通道為一,過(guò)濾器為N。
過(guò)濾器的數(shù)量為N,則輸出層的通道也為N。

情況4:
步長(zhǎng)為一,通道為D,過(guò)濾器為N。

卷積層權(quán)重更新
卷積層權(quán)值共享。

polling層(采樣層)權(quán)重更新
無(wú)論是max polling 還是mean polling 都沒(méi)有需要學(xué)習(xí)的參數(shù)。
polling層需要做的僅僅是將誤差傳遞給上一層,沒(méi)有梯度的計(jì)算。
1.對(duì)于最大采樣(max polling),它的誤差會(huì)原封不動(dòng)的給上一層最大值對(duì)應(yīng)的神經(jīng)元,而其他神經(jīng)元誤差都是0.
2.對(duì)于mean polling(平均采樣),它的誤差會(huì)平均分給上一層對(duì)應(yīng)區(qū)塊的所有神經(jīng)元。

網(wǎng)絡(luò)優(yōu)化

網(wǎng)絡(luò)優(yōu)化

準(zhǔn)備階段:

  1. 數(shù)據(jù)預(yù)處理
  2. 網(wǎng)絡(luò)搭建(歸一化,正則化)
  3. 網(wǎng)絡(luò)參數(shù)的初始化

訓(xùn)練階段

  1. 前向傳播(歸一化,正則化)
  2. 反向傳播
  3. 參數(shù)更新(優(yōu)化算法)

等高線

概念:地圖上高度相等各點(diǎn)形成的閉合曲線。人工智能卷積神經(jīng)網(wǎng)絡(luò),CNN,梯度下降,人工智能,cnn,神經(jīng)網(wǎng)絡(luò)

三個(gè)函數(shù)

損失函數(shù):?jiǎn)蝹€(gè)樣本的與真實(shí)值之間的誤差。
代價(jià)函數(shù):數(shù)據(jù)整體與真實(shí)值之間的誤差。
目標(biāo)函數(shù):經(jīng)驗(yàn)風(fēng)險(xiǎn)(代價(jià)函數(shù))+ 結(jié)構(gòu)風(fēng)險(xiǎn)。

經(jīng)驗(yàn)風(fēng)險(xiǎn):最小化訓(xùn)練集上的經(jīng)驗(yàn)損失。
結(jié)構(gòu)風(fēng)險(xiǎn):通過(guò)正則防止過(guò)擬合。

梯度下降法

什么是梯度下降法:如何通俗地解釋梯度下降法_嗶哩嗶哩_bilibili
因?yàn)樯窠?jīng)網(wǎng)絡(luò)參數(shù)很多,無(wú)法直接對(duì)損失函數(shù)求解,需要通過(guò)逼近的方法來(lái)求解,達(dá)到極值點(diǎn)。

  1. 參數(shù)初始化,定義損失函數(shù)。
  2. 計(jì)算損失函數(shù)關(guān)于參數(shù)梯度。
  3. 更新參數(shù)模型。
  4. 重復(fù)2,3 直到損失函數(shù)不再下降。

其中,BGD,SGD,MBGD,SGDM。統(tǒng)稱(chēng)為SGD。
它們幾個(gè)計(jì)算梯度的方式不同:

  • BGD:采用所有樣本計(jì)算梯度。
  • SGD:采用單個(gè)樣本計(jì)算梯度。
  • MBGD:采用K個(gè)樣本計(jì)算梯度。

學(xué)習(xí)率:

學(xué)習(xí)率是梯度前面的參數(shù)

設(shè)置過(guò)小,loss下降慢,收斂速度慢。
設(shè)置過(guò)大,loss下降快,無(wú)法收斂。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-789434.html

  • 線性學(xué)習(xí)率:loss下降穩(wěn)定。
  • 周期學(xué)習(xí)率:特定網(wǎng)絡(luò)下效果較好。

到了這里,關(guān)于人工智能卷積神經(jīng)網(wǎng)絡(luò),CNN,梯度下降的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【人工智能】圖文詳解深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)(CNN)
  • 【人工智能與機(jī)器學(xué)習(xí)】基于卷積神經(jīng)網(wǎng)絡(luò)CNN的貓狗識(shí)別

    【人工智能與機(jī)器學(xué)習(xí)】基于卷積神經(jīng)網(wǎng)絡(luò)CNN的貓狗識(shí)別

    很巧,筆者在幾月前的計(jì)算機(jī)設(shè)計(jì)大賽作品設(shè)計(jì)中也采用了貓狗識(shí)別,目前已推國(guó)賽評(píng)選中 但當(dāng)時(shí)所使用的方法與本次作業(yè)要求不太一致,又重新做了一遍,下文將以本次作業(yè)要求為主,介紹CNN卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)貓狗識(shí)別 貓狗識(shí)別和狗品種識(shí)別是計(jì)算機(jī)視覺(jué)領(lǐng)域中一個(gè)重要

    2024年02月13日
    瀏覽(45)
  • 人工智能-卷積神經(jīng)網(wǎng)絡(luò)

    人工智能-卷積神經(jīng)網(wǎng)絡(luò)

    ? ? ? ? 人和動(dòng)物如何把看到的圖像轉(zhuǎn)化為大腦中的一個(gè)概念? ? ? ? ? 我們知道計(jì)算機(jī)是把圖轉(zhuǎn)換為一大堆數(shù)字,通過(guò)訓(xùn)練可以知道這堆數(shù)字代表什么含義。但通過(guò)前面學(xué)過(guò)神經(jīng)網(wǎng)絡(luò)模型和梯度下降法的方法訓(xùn)練費(fèi)時(shí)費(fèi)力,而且一旦圖片進(jìn)行改變?nèi)缈s放、旋轉(zhuǎn)或其他變換,

    2024年02月16日
    瀏覽(23)
  • 人工智能(Pytorch)搭建模型1-卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)簡(jiǎn)單圖像分類(lèi)

    人工智能(Pytorch)搭建模型1-卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)簡(jiǎn)單圖像分類(lèi)

    本文參加新星計(jì)劃人工智能(Pytorch)賽道:https://bbs.csdn.net/topics/613989052 目錄 一、Pytorch深度學(xué)習(xí)框架 二、 卷積神經(jīng)網(wǎng)絡(luò) 三、代碼實(shí)戰(zhàn) 內(nèi)容: 一、Pytorch深度學(xué)習(xí)框架 PyTorch是一個(gè)開(kāi)源的深度學(xué)習(xí)框架,它基于Torch進(jìn)行了重新實(shí)現(xiàn),主要支持GPU加速計(jì)算,同時(shí)也可以在CPU上運(yùn)行

    2024年02月03日
    瀏覽(98)
  • 魚(yú)類(lèi)識(shí)別Python+深度學(xué)習(xí)人工智能+TensorFlow+卷積神經(jīng)網(wǎng)絡(luò)算法

    魚(yú)類(lèi)識(shí)別Python+深度學(xué)習(xí)人工智能+TensorFlow+卷積神經(jīng)網(wǎng)絡(luò)算法

    魚(yú)類(lèi)識(shí)別系統(tǒng)。使用Python作為主要編程語(yǔ)言開(kāi)發(fā),通過(guò)收集常見(jiàn)的30種魚(yú)類(lèi)(‘墨魚(yú)’, ‘多寶魚(yú)’, ‘帶魚(yú)’, ‘石斑魚(yú)’, ‘秋刀魚(yú)’, ‘章魚(yú)’, ‘紅魚(yú)’, ‘羅非魚(yú)’, ‘胖頭魚(yú)’, ‘草魚(yú)’, ‘銀魚(yú)’, ‘青魚(yú)’, ‘馬頭魚(yú)’, ‘魷魚(yú)’, ‘鲇魚(yú)’, ‘鱸魚(yú)’, ‘鮑魚(yú)’, ‘鮭

    2024年02月02日
    瀏覽(114)
  • 畢業(yè)設(shè)計(jì):基于卷積神經(jīng)網(wǎng)絡(luò)的古詩(shī)詞生成系統(tǒng) 人工智能

    畢業(yè)設(shè)計(jì):基于卷積神經(jīng)網(wǎng)絡(luò)的古詩(shī)詞生成系統(tǒng) 人工智能

    目錄 ?前言 設(shè)計(jì)思路 ? ? ??一、課題背景與意義 ? ? ??二、算法理論原理 ? ? ? ? ? ? ? ?2.1 深度學(xué)習(xí) ? ? ? ? ? ? ? ?2.2 神經(jīng)網(wǎng)絡(luò) ? ? ??三、檢測(cè)的實(shí)現(xiàn) ? ? ? ? ? ? ? ?3.1 數(shù)據(jù)集 ? ? ? ? ? ? ? ?3.2 實(shí)驗(yàn)環(huán)境搭建 ? ? ? ? ? ? ? ?3.3 模型訓(xùn)練 最后 ? ? ? ???大

    2024年04月12日
    瀏覽(65)
  • 人工智能(Pytorch)搭建模型6-使用Pytorch搭建卷積神經(jīng)網(wǎng)絡(luò)ResNet模型

    人工智能(Pytorch)搭建模型6-使用Pytorch搭建卷積神經(jīng)網(wǎng)絡(luò)ResNet模型

    大家好,我是微學(xué)AI,今天給大家介紹一下人工智能(Pytorch)搭建模型6-使用Pytorch搭建卷積神經(jīng)網(wǎng)絡(luò)ResNet模型,在本文中,我們將學(xué)習(xí)如何使用PyTorch搭建卷積神經(jīng)網(wǎng)絡(luò)ResNet模型,并在生成的假數(shù)據(jù)上進(jìn)行訓(xùn)練和測(cè)試。本文將涵蓋這些內(nèi)容:ResNet模型簡(jiǎn)介、ResNet模型結(jié)構(gòu)、生成假

    2024年02月06日
    瀏覽(103)
  • 【人工智能】實(shí)驗(yàn)五 采用卷積神經(jīng)網(wǎng)絡(luò)分類(lèi)MNIST數(shù)據(jù)集與基礎(chǔ)知識(shí)

    熟悉和掌握 卷積神經(jīng)網(wǎng)絡(luò)的定義,了解網(wǎng)絡(luò)中卷積層、池化層等各層的特點(diǎn),并利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)MNIST數(shù)據(jù)集進(jìn)行分類(lèi)。 編寫(xiě)卷積神經(jīng)網(wǎng)絡(luò)分類(lèi)軟件,編程語(yǔ)言不限,如Python等,以MNIST數(shù)據(jù)集為數(shù)據(jù),實(shí)現(xiàn)對(duì)MNIST數(shù)據(jù)集分類(lèi)操作,其中MNIST數(shù)據(jù)集共10類(lèi),分別為手寫(xiě)0—9。

    2024年02月04日
    瀏覽(93)
  • 90 | Python人工智能篇 —— 深度學(xué)習(xí)算法 Keras基于卷積神經(jīng)網(wǎng)絡(luò)的情感分類(lèi)

    情感分類(lèi)是自然語(yǔ)言處理(NLP)領(lǐng)域的一個(gè)重要任務(wù),它旨在將文本劃分為積極、消極或中性等不同情感類(lèi)別。深度學(xué)習(xí)技術(shù),尤其是卷積神經(jīng)網(wǎng)絡(luò)(CNN),在情感分類(lèi)任務(wù)中取得了顯著的成果。Keras作為一個(gè)高級(jí)的深度學(xué)習(xí)框架,提供了便捷易用的工具來(lái)構(gòu)建和訓(xùn)練情感分

    2024年02月13日
    瀏覽(29)
  • 【畢業(yè)設(shè)計(jì)】基于深度學(xué)習(xí)的道路裂縫識(shí)別算法系統(tǒng) python 卷積神經(jīng)網(wǎng)絡(luò) 人工智能

    【畢業(yè)設(shè)計(jì)】基于深度學(xué)習(xí)的道路裂縫識(shí)別算法系統(tǒng) python 卷積神經(jīng)網(wǎng)絡(luò) 人工智能

    目錄 ?前言 設(shè)計(jì)思路 一、課題背景與意義 二、算法理論原理 2.1 卷積神經(jīng)網(wǎng)絡(luò) 2.1 YOLOv5算法 三、道路裂縫檢測(cè)的實(shí)現(xiàn) 3.1 數(shù)據(jù)集 3.2 實(shí)驗(yàn)環(huán)境及參數(shù)設(shè)置? 3.2 實(shí)驗(yàn)及結(jié)果分析 實(shí)現(xiàn)效果圖樣例 最后 ? ? ? ???大四是整個(gè)大學(xué)期間最忙碌的時(shí)光,一邊要忙著備考或?qū)嵙?xí)為畢業(yè)后

    2024年03月24日
    瀏覽(36)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包