国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

計(jì)算機(jī)視覺中的感受野

這篇具有很好參考價(jià)值的文章主要介紹了計(jì)算機(jī)視覺中的感受野。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

一、感受野的定義

感受野( R e c e p t i v e Receptive Receptive F i e l d Field Field)的定義是卷積神經(jīng)網(wǎng)絡(luò)每一層輸出的特征圖( f e a t u r e feature feature m a p map map)上的像素點(diǎn)在原始輸入圖片上映射的區(qū)域大小。再通俗點(diǎn)的解釋是,特征圖上的一個(gè)點(diǎn)對應(yīng)原始輸入圖片上的區(qū)域,如下圖所示。
計(jì)算機(jī)視覺中的感受野,深度學(xué)習(xí)基礎(chǔ),計(jì)算機(jī)視覺,人工智能

二、感受野的例子

這里舉兩個(gè)例子來簡單說明一下感受野。首先是一個(gè)5 * 5的輸入圖經(jīng)過兩層卷積核為3 * 3的卷積操作后得到的感受野是5*5,其中卷積核( f i l t e r filter filter)的步長( s t r i d e stride stride)為1、 p a d d i n g padding padding為0,如下圖所示:
計(jì)算機(jī)視覺中的感受野,深度學(xué)習(xí)基礎(chǔ),計(jì)算機(jī)視覺,人工智能
上圖中 O u t 1 Out1 Out1中左上角第一個(gè)值是由 I n p u t Input Input中左上角3 * 3區(qū)域的值經(jīng)過卷積計(jì)算出來的,即 O u t 1 Out1 Out1中左上角值的感受野是 I n p u t Input Input中左上角3 * 3的區(qū)域;

O u t 2 Out2 Out2中的值是由 O u t 1 Out1 Out1中對應(yīng)3 * 3的區(qū)域經(jīng)過卷積計(jì)算得到的,即 O u t 2 Out2 Out2中的感受野是 O u t 1 Out1 Out1中整個(gè)3 * 3的區(qū)域;

由此可知 O u t 2 Out2 Out2的值是由 I n p u t Input Input中所有的區(qū)域經(jīng)過兩層卷積計(jì)算得到的,即 O u t 2 Out2 Out2的感受野是 I n p u t Input Input中所有的5 * 5區(qū)域。
再舉一個(gè)例子,7 * 7的輸入圖經(jīng)過三層卷積核為3 * 3的卷積操作后得到 O u t 3 Out3 Out3的感受野為7 * 7,也就是 O u t 3 Out3 Out3中的值是由 I n p u t Input Input所有區(qū)域的值經(jīng)過卷積計(jì)算得到,其中卷積核大小、步長和 p a d d i n g padding padding的值均和上面例子相同,如下圖所示:
計(jì)算機(jī)視覺中的感受野,深度學(xué)習(xí)基礎(chǔ),計(jì)算機(jī)視覺,人工智能

三、感受野的計(jì)算

在計(jì)算感受野時(shí)有下面幾點(diǎn)需要說明:

(1)第一層卷積層的輸出特征圖像素的感受野的大小等于卷積核的大小。

(2)深層卷積層的感受野大小和它之前所有層的濾波器大小和步長有關(guān)系。

(3)計(jì)算感受野大小時(shí),忽略了圖像邊緣的影響,即不考慮padding的大小。

下面給出計(jì)算感受野大小的計(jì)算公式:

R F l + 1 = ( R F l ? 1 ) ? ∏ i = 1 l s t r i d e s i + f l + 1 RF_{l+1} = (RF_{l}-1)*\prod_{i=1}^{l}strides_i + f_{l+1} RFl+1?=(RFl??1)?i=1l?stridesi?+fl+1?

其中 R F l + 1 RF_{l+1} RFl+1?為當(dāng)前特征圖對應(yīng)的感受野的大小,也就是要計(jì)算的目標(biāo)感受野, R F l RF_{l} RFl?為上一層特征圖對應(yīng)的感受野大小,f_{l+1}為當(dāng)前卷積層卷積核的大小,累乘項(xiàng) s t r i d e s strides strides表示當(dāng)前卷積層之前所有卷積層的步長乘積。

以上面舉的第二個(gè) s a m p l e sample sample為例:

O u t 1 Out1 Out1層由于是第一層卷積輸出,即其感受野等于其卷積核的大小,即第一層卷積層輸出的特征圖的感受野為3, R F 1 RF1 RF1=3;

O u t 2 Out2 Out2層的感受野 R F 2 RF2 RF2 = 3 + (3 - 1) * 1 = 5,即第二層卷積層輸出的特征圖的感受野為5;

O u t 3 Out3 Out3層的感受野 R F 3 RF3 RF3 = 3 + (5 - 1) * 1 = 7,即第三層卷積層輸出的特征圖的感受野為7;

下面給出了由上述方法來計(jì)算 A l e x n e t Alexnet Alexnet V G G 16 VGG16 VGG16網(wǎng)絡(luò)中每一層輸出特征圖的感受野大小的 p y t h o n python python代碼:

net_struct = {
    'alexnet': {'net': [[11, 4, 0], [3, 2, 0], [5, 1, 2], [3, 2, 0], [3, 1, 1], [3, 1, 1], [3, 1, 1], [3, 2, 0]],
                'name': ['conv1', 'pool1', 'conv2', 'pool2', 'conv3', 'conv4', 'conv5', 'pool5']},
    'vgg16': {'net': [[3, 1, 1], [3, 1, 1], [2, 2, 0], [3, 1, 1], [3, 1, 1], [2, 2, 0], [3, 1, 1], [3, 1, 1], [3, 1, 1],
                      [2, 2, 0], [3, 1, 1], [3, 1, 1], [3, 1, 1], [2, 2, 0], [3, 1, 1], [3, 1, 1], [3, 1, 1],
                      [2, 2, 0]],
              'name': ['conv1_1', 'conv1_2', 'pool1', 'conv2_1', 'conv2_2', 'pool2', 'conv3_1', 'conv3_2',
                       'conv3_3', 'pool3', 'conv4_1', 'conv4_2', 'conv4_3', 'pool4', 'conv5_1', 'conv5_2', 'conv5_3',
                       'pool5']}}

# 輸入圖片size
imsize = 224

def outFromIn(isz, net, layernum):
    totstride = 1
    insize = isz
    for layer in range(layernum):
        fsize, stride, pad = net[layer]
        # outsize為每一層的輸出size
        outsize = (insize - fsize + 2 * pad) / stride + 1
        insize = outsize
        totstride = totstride * stride
    return outsize, totstride


def inFromOut(net, layernum):
    RF = 1
    for layer in reversed(range(layernum)):
        fsize, stride, pad = net[layer]
        # 感受野計(jì)算公式
        RF = ((RF - 1) * stride) + fsize
    return RF


if __name__ == '__main__':
    print("layer output sizes given image = %dx%d" % (imsize, imsize))

    for net in net_struct.keys():
        print('************net structrue name is %s**************' % net)
        for i in range(len(net_struct[net]['net'])):
            p = outFromIn(imsize, net_struct[net]['net'], i + 1)
            rf = inFromOut(net_struct[net]['net'], i + 1)
            print("Layer Name = %s, Output size = %3d, Stride = % 3d, RF size = %3d" % (net_struct[net]['name'][i], p[0], p[1], rf))

4.感受野的作用

(1)一般 t a s k task task要求感受野越大越好,如圖像分類中最后卷積層的感受野要大于輸入圖像,網(wǎng)絡(luò)深度越深感受野越大性能越好;

(2)密集預(yù)測 t a s k task task要求輸出像素的感受野足夠的大,確保做出決策時(shí)沒有忽略重要信息,一般也是越深越好;

(3)目標(biāo)檢測 t a s k task task中設(shè)置 a n c h o r anchor anchor要嚴(yán)格對應(yīng)感受野, a n c h o r anchor anchor太大或偏離感受野都會嚴(yán)重影響檢測性能。

5.有效感受野

U n d e r s t a n d i n g Understanding Understanding t h e the the E f f e c t i v e Effective Effective R e c e p t i v e Receptive Receptive F i e l d Field Field i n in in D e e p Deep Deep C o n v o l u t i o n a l Convolutional Convolutional N e u r a l Neural Neural N e t w o r k s Networks Networks一文中提出了有效感受野( E f f e c t i v e Effective Effective R e c e p t i v e Receptive Receptive F i e l d Field Field, E R F ERF ERF)理論,論文發(fā)現(xiàn)并不是感受野內(nèi)所有像素對輸出向量的貢獻(xiàn)相同,在很多情況下感受野區(qū)域內(nèi)像素的影響分布是高斯,有效感受野僅占理論感受野的一部分,且高斯分布從中心到邊緣快速衰減,下圖第二個(gè)是訓(xùn)練后 C N N CNN CNN的典型有效感受野。
計(jì)算機(jī)視覺中的感受野,深度學(xué)習(xí)基礎(chǔ),計(jì)算機(jī)視覺,人工智能
回到這張圖,我們看綠色的這個(gè)區(qū)域,黃色為圖像,綠色框掃過時(shí),對于第一列是只掃過一次,也就是參與一次運(yùn)算,而之后之間的幾列均是參與了多次計(jì)算。因此,最終實(shí)際感受野,是呈現(xiàn)一種高斯分布。
計(jì)算機(jī)視覺中的感受野,深度學(xué)習(xí)基礎(chǔ),計(jì)算機(jī)視覺,人工智能文章來源地址http://www.zghlxwxcb.cn/news/detail-557561.html

到了這里,關(guān)于計(jì)算機(jī)視覺中的感受野的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 計(jì)算機(jī)視覺基礎(chǔ)(10)——深度學(xué)習(xí)與圖像分類

    計(jì)算機(jī)視覺基礎(chǔ)(10)——深度學(xué)習(xí)與圖像分類

    傳統(tǒng)視覺算法采用手工設(shè)計(jì)特征與淺層模型 ,而手工設(shè)計(jì)特征依賴于專業(yè)知識,且泛化能力差。深度學(xué)習(xí)的出現(xiàn)改變了這一狀況, 為視覺問題提供了端到端的解決方案 。在之前的課程中,我們已經(jīng)學(xué)習(xí)了圖像分類的傳統(tǒng)知識。在本節(jié)課中,我們將學(xué)習(xí)到 圖像分類融合深度學(xué)

    2024年02月04日
    瀏覽(38)
  • 計(jì)算機(jī)視覺與深度學(xué)習(xí) | 視覺慣性SLAM的基礎(chǔ)理論

    ===================================================== github:https://github.com/MichaelBeechan CSDN:https://blog.csdn.net/u011344545 ===================================================== 計(jì)算機(jī)視覺與深度學(xué)習(xí) | SLAM國內(nèi)外研究現(xiàn)狀

    2024年02月07日
    瀏覽(24)
  • 深度學(xué)習(xí)在計(jì)算機(jī)視覺中的對象檢測技術(shù)

    計(jì)算機(jī)視覺是人工智能領(lǐng)域的一個(gè)重要分支,其主要研究如何讓計(jì)算機(jī)理解和處理圖像和視頻。對象檢測是計(jì)算機(jī)視覺中的一個(gè)重要任務(wù),它旨在在圖像中識別和定位特定類別的物體。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,對象檢測技術(shù)也逐漸被深度學(xué)習(xí)所取代,這種方法在性能和準(zhǔn)確

    2024年02月19日
    瀏覽(18)
  • 深度學(xué)習(xí)在計(jì)算機(jī)視覺中的突破性進(jìn)展

    計(jì)算機(jī)視覺(Computer Vision)是人工智能領(lǐng)域的一個(gè)重要分支,旨在讓計(jì)算機(jī)理解和處理人類世界中的視覺信息。計(jì)算機(jī)視覺的主要任務(wù)包括圖像識別、圖像分類、目標(biāo)檢測、對象跟蹤、場景理解等。在過去的幾十年里,計(jì)算機(jī)視覺的研究和應(yīng)用得到了廣泛的關(guān)注和發(fā)展。然而,

    2024年02月21日
    瀏覽(23)
  • 《計(jì)算機(jī)視覺中的深度學(xué)習(xí)》之目標(biāo)檢測算法原理

    《計(jì)算機(jī)視覺中的深度學(xué)習(xí)》之目標(biāo)檢測算法原理

    參考:《計(jì)算機(jī)視覺中的深度學(xué)習(xí)》 目標(biāo)檢測的挑戰(zhàn): 減少目標(biāo)定位的準(zhǔn)確度 減少背景干擾 提高目標(biāo)定位的準(zhǔn)確度 目標(biāo)檢測系統(tǒng)常用評價(jià)指標(biāo):檢測速度和精度 提高精度:有效排除背景,光照和噪聲的影響 提高檢測速度:精簡檢測流程,簡化圖像處理算法 算法概述:傳

    2024年03月27日
    瀏覽(30)
  • 基于半監(jiān)督學(xué)習(xí)的深度學(xué)習(xí)在計(jì)算機(jī)視覺中的應(yīng)用

    作者:禪與計(jì)算機(jī)程序設(shè)計(jì)藝術(shù) 在人工智能領(lǐng)域,深度學(xué)習(xí)技術(shù)逐漸成為解決復(fù)雜任務(wù)的重要手段。但如何將深度學(xué)習(xí)技術(shù)應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域仍存在很多困難。特別是在實(shí)際應(yīng)用場景中,計(jì)算機(jī)視覺的目標(biāo)往往是識別圖像中的特定對象或場景?,F(xiàn)有的很多深度學(xué)習(xí)模型,

    2024年02月09日
    瀏覽(25)
  • 《零基礎(chǔ)實(shí)踐深度學(xué)習(xí)》(第2版)學(xué)習(xí)筆記,(五)深度學(xué)習(xí)與計(jì)算機(jī)視覺
  • 計(jì)算機(jī)視覺基礎(chǔ)知識(十二)--神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)

    計(jì)算機(jī)視覺基礎(chǔ)知識(十二)--神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)

    一種機(jī)器學(xué)習(xí)的算法 一般有輸入層--隱藏層--輸出層 隱藏層數(shù)量多于兩個(gè)的稱為深度神經(jīng)網(wǎng)絡(luò); 輸入的是特征向量; 特征向量代表的是變化的方向; 或者說是最能代表這個(gè)事物的特征方向; 權(quán)重是特征值,有正有負(fù),加強(qiáng)或抑制; 權(quán)重的絕對值大小,代表輸入信號對神經(jīng)元的影響大小

    2024年02月21日
    瀏覽(27)
  • 【深度學(xué)習(xí):圖像分割指南】計(jì)算機(jī)視覺中的圖像分割指南:最佳實(shí)踐

    【深度學(xué)習(xí):圖像分割指南】計(jì)算機(jī)視覺中的圖像分割指南:最佳實(shí)踐

    圖像分割是計(jì)算機(jī)視覺中的一項(xiàng)關(guān)鍵任務(wù),其目標(biāo)是將圖像劃分為不同的有意義且可區(qū)分的區(qū)域或?qū)ο蟆_@是物體識別、跟蹤和檢測、醫(yī)學(xué)成像和機(jī)器人等各種應(yīng)用中的一項(xiàng)基本任務(wù)。 許多技術(shù)可用于圖像分割,從傳統(tǒng)方法到基于深度學(xué)習(xí)的方法。隨著深度學(xué)習(xí)的出現(xiàn),圖像

    2024年01月23日
    瀏覽(22)
  • 機(jī)器學(xué)習(xí)之計(jì)算機(jī)視覺中的深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)介紹

    機(jī)器學(xué)習(xí)之計(jì)算機(jī)視覺中的深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)介紹

    文章代碼來源:《deep learning on keras》,非常好的一本書,大家如果英語好,推薦直接閱讀該書,如果時(shí)間不夠,可以看看此系列文章。 在這一章,我們會學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò),一種在計(jì)算機(jī)視覺中常用的深度學(xué)習(xí)模型,你將會學(xué)著將它們運(yùn)用到分類問題中。 我們首先會介紹卷

    2024年02月04日
    瀏覽(32)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包