国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

圖像分割UNet (1) : 網(wǎng)絡(luò)結(jié)構(gòu)講解

這篇具有很好參考價值的文章主要介紹了圖像分割UNet (1) : 網(wǎng)絡(luò)結(jié)構(gòu)講解。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

UNet 簡介

UNet 論文:Convolutional Networks for Biomedical Image Segmentation

圖像分割UNet (1) : 網(wǎng)絡(luò)結(jié)構(gòu)講解
這篇論文主要是針對生物醫(yī)學(xué)影像這個領(lǐng)域提出的,所以一提到UNet一般都會聯(lián)想到醫(yī)學(xué)影像。

UNet 網(wǎng)絡(luò)結(jié)構(gòu)

圖像分割UNet (1) : 網(wǎng)絡(luò)結(jié)構(gòu)講解
UNet它是一個encoder - decoder的結(jié)構(gòu),那么encoder對應(yīng)就是這個u型網(wǎng)絡(luò)左邊這半部分,也就是我們特征提取及下采樣這部分。decoder解碼就是右邊部分通過一系列上采樣,我們得到最終的一個分割圖。 對于網(wǎng)絡(luò)結(jié)構(gòu)左邊這一側(cè),作者叫做contracting path,對于右邊這一側(cè)作者稱為expansive path

在上圖的網(wǎng)絡(luò)結(jié)構(gòu)中,每一個長條的矩形對應(yīng)的都是一個特征層,其中箭頭表示是一種操作。圖中右下角列出了每一種箭頭它所對應(yīng)的操作類型。下面詳細的介紹網(wǎng)絡(luò)的搭建過程:

U型網(wǎng)絡(luò)的左半部分

  • 這里輸入是以572x572的單通道的圖像為例的,首先通過一個卷積層,它的卷積核大小為3x3的,并且后面跟一個Relu激活函數(shù)。注意對于這個卷積層它的步距是等于1的,其次是沒有padding操作的,所以你會發(fā)現(xiàn)通過這個卷積層,它的高和寬都會減少。比如這里通過第一個3x3的卷積,它的高和寬從572變?yōu)?code>570,再通過一個3x3卷積層又變?yōu)?68.由于這篇論文是2015年發(fā)表的,當(dāng)時BN(batch normalization)還沒火起來,所以按時還沒有使用BN這個模塊。
  • 接下來,通過一個max pooling下采樣,池化核大小為2x2,步距為2,那么經(jīng)過下采樣特征層的高和寬就會減半。由568變成這里的284,channel是沒有發(fā)生變化的還是64.再通過兩個3x3的卷積核,這里注意每個下采樣后,通過卷積層都會對channel進行翻倍。比如這里下采樣后的channel為64,通過3x3卷積后channel變?yōu)?28
  • 接下來,通過下采樣max-pooling,將特征層的高和寬由280變?yōu)?40,然后再通過兩個3x3的卷積層,將通道由128調(diào)整為256.
  • 接下來,再通過下采樣max-pooling,將特征層的高和寬由136變?yōu)?8,然后再通過兩個3x3的卷積層,將channel由256調(diào)整為512.
  • 然后,再通過下采樣max-pooling,將特征層的高和寬由64變?yōu)?2,然后再通過兩個3x3的卷積層,將channel由512調(diào)整為1024.

U型網(wǎng)絡(luò)的右半部分

  • 接下來這一部分需要注意了,首先對于綠色箭頭部分,這里有寫是一個上采樣(up conv),這里上采樣采用的是轉(zhuǎn)置卷積,通過轉(zhuǎn)置卷積后它將特征層的寬和高變?yōu)樵瓉淼膬杀?,比如這里由28變成56,然后channel會減半,由這里的1024變?yōu)?12.對應(yīng)圖中的藍色部分。
    圖像分割UNet (1) : 網(wǎng)絡(luò)結(jié)構(gòu)講解
    注意這里旁邊有個灰色的箭頭(copy and crop),比如灰色箭頭左側(cè)對應(yīng)64x64大小的特征層,但箭頭右側(cè)藍色部分的特征圖為56x56,沒法直接將他們進行拼接。那么就需要對左側(cè)64x64大小的特征層進行一個中心裁剪,就是將中間56x56部分裁剪過來和右側(cè)藍色部分進行channel 方向的concat拼接,拼接后channel就變?yōu)?024了。然后再通過2個3x3的卷積核將channel調(diào)整成512
  • 然后再通過上采樣將特征圖的高和寬由52調(diào)整到這里的104,然后channel減半為256.然后將灰色箭頭右側(cè)的特征層通過中心裁剪的方式,將中間104x104的區(qū)域裁剪過來與箭頭右側(cè)藍色部分進行concat拼接,通道由256變?yōu)?12。然后再通過兩個3x3的卷積進一步融合,并且通道由512變?yōu)?56
  • 然后再通過上采樣將特征圖的高和寬由100調(diào)整到這里的200,然后channel減半為128.然后將灰色箭頭右側(cè)的特征層通過中心裁剪的方式,將中間200x200的區(qū)域裁剪過來與箭頭右側(cè)藍色部分進行concat拼接,通道由128變?yōu)?56。然后再通過兩個3x3的卷積進一步融合,并且通道由256變?yōu)?28
  • 然后再通過上采樣將特征圖的高和寬由196調(diào)整到這里的392,然后channel減半為64.然后將灰色箭頭右側(cè)的特征層通過中心裁剪的方式,將中間392x392的區(qū)域裁剪過來與箭頭右側(cè)藍色部分進行concat拼接,通道由64變?yōu)?28。然后再通過兩個3x3的卷積進一步融合,得到388x388,通道為64的特征層。
  • 再通過一個1x1的卷積核,將channel調(diào)整為我們的分類個數(shù)。論文中是為2表示只有兩個類別,前景和背景。最終輸出的特征圖大小為388x388x2,注意最后一個1x1卷積是沒有relu激活函數(shù)的。

注意我們輸入的圖片大小為572x572,但是我們得到的分割圖是388x388的,所以我們這里得到分割圖并不是針對我們原圖的一個分割圖,而是只有中間388x388那個區(qū)域的分割圖。

但是現(xiàn)在比較主流的實驗方式github所實現(xiàn)的一系列源碼當(dāng)中,大家并不是嚴格按照原論文給的方式去實現(xiàn)的,現(xiàn)在主流的實現(xiàn)方式是將3x3的卷積加上一個padding,就是說我們每次通過3x3的卷積層不會改變特征層的高和寬。并且我們在卷積核Relu之間會加上一個Bn層。這樣做會給我們帶來一個怎樣的變化呢,由于卷積后不改變特征層大小,兩個特征圖可以直接拼接,就不需要中心裁剪了,并且最終得到的卷積層高和寬與輸入的卷積層高和寬是保持一致的。所以后面要實現(xiàn)可以按照當(dāng)前主流的方式。

圖像分割UNet (1) : 網(wǎng)絡(luò)結(jié)構(gòu)講解
假設(shè)我們要用原論文提出的UNet的話,其實是有一定的問題的,比如我們要得到上圖中黃色區(qū)域的分割圖片,其實我們需要更大的輸入圖片如藍色部分才可以得到中間黃色區(qū)域的分割圖片。

但對于邊緣區(qū)域,邊緣之外的像素我們是沒有的,為了應(yīng)對這個問題作者說對于那些缺失的數(shù)據(jù),它就直接采用鏡像的策略,通過沿邊框進行鏡像得到。但如果按照目前主流的實現(xiàn)方式,輸出的分割圖與原圖保持一致的話,其實我們根本不用考慮邊緣缺失數(shù)據(jù)這個情況。文章來源地址http://www.zghlxwxcb.cn/news/detail-464833.html

到了這里,關(guān)于圖像分割UNet (1) : 網(wǎng)絡(luò)結(jié)構(gòu)講解的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 《圖像分割Unet網(wǎng)絡(luò)分析及其Pytorch版本代碼實現(xiàn)》

    《圖像分割Unet網(wǎng)絡(luò)分析及其Pytorch版本代碼實現(xiàn)》

    ? 最近兩個月在做學(xué)習(xí)圖像分割方面的學(xué)習(xí),踩了無數(shù)的坑,也學(xué)到了很多的東西,想了想還是趁著國慶節(jié)有時間來做個總結(jié),以后有這方面需要可以來看看。 ? 神經(jīng)網(wǎng)絡(luò)被大規(guī)模的應(yīng)用到計算機視覺中的分類任務(wù)中,說到神經(jīng)網(wǎng)絡(luò)的分類任務(wù)這里不得不提到CNN(卷積神經(jīng)網(wǎng)

    2024年02月05日
    瀏覽(34)
  • 論文閱讀—2023.7.13:遙感圖像語義分割空間全局上下文信息網(wǎng)絡(luò)(主要為unet網(wǎng)絡(luò)以及改unet)附加個人理解與代碼解析

    論文閱讀—2023.7.13:遙感圖像語義分割空間全局上下文信息網(wǎng)絡(luò)(主要為unet網(wǎng)絡(luò)以及改unet)附加個人理解與代碼解析

    前期看的文章大部分都是深度學(xué)習(xí)原理含量多一點,一直在糾結(jié)怎么改模型,論文看的很吃力,看一篇忘一篇,總感覺摸不到方向。想到自己是遙感專業(yè),所以還是回歸遙感影像去談深度學(xué)習(xí),回歸問題,再想著用什么方法解決問題。 1、易丟失空間信息 在 Decoder 階段輸出多

    2024年02月16日
    瀏覽(24)
  • YOLOv5網(wǎng)絡(luò)模型的結(jié)構(gòu)原理講解(全)

    YOLOv5網(wǎng)絡(luò)模型的結(jié)構(gòu)原理講解(全)

    YOLOv5有幾種不同的架構(gòu),各網(wǎng)絡(luò)模型算法性能分別如下: YOLOv5是一種目標(biāo)檢測算法,其模型結(jié)構(gòu)主要包括以下組成部分: 輸入端:YOLOv5的Head網(wǎng)絡(luò)由3個不同的輸出層組成,分別負責(zé)檢測大中小尺度的目標(biāo)。 Backbone網(wǎng)絡(luò):YOLOv5使用CSPDarknet53作為其主干網(wǎng)絡(luò),其具有較強的特征提

    2024年02月05日
    瀏覽(20)
  • Python Unet ++ :醫(yī)學(xué)圖像分割,醫(yī)學(xué)細胞分割,Unet醫(yī)學(xué)圖像處理,語義分割

    Python Unet ++ :醫(yī)學(xué)圖像分割,醫(yī)學(xué)細胞分割,Unet醫(yī)學(xué)圖像處理,語義分割

    一,語義分割:分割領(lǐng)域前幾年的發(fā)展 圖像分割是機器視覺任務(wù)的一個重要基礎(chǔ)任務(wù),在圖像分析、自動駕駛、視頻監(jiān)控等方面都有很重要的作用。圖像分割可以被看成一個分類任務(wù),需要給每個像素進行分類,所以就比圖像分類任務(wù)更加復(fù)雜。此處主要介紹 Deep Learning-ba

    2024年02月16日
    瀏覽(98)
  • 簡單有趣的輕量級網(wǎng)絡(luò) Shufflenet v1 、Shufflenet v2(網(wǎng)絡(luò)結(jié)構(gòu)詳解+詳細注釋代碼+核心思想講解)——pytorch實現(xiàn)

    簡單有趣的輕量級網(wǎng)絡(luò) Shufflenet v1 、Shufflenet v2(網(wǎng)絡(luò)結(jié)構(gòu)詳解+詳細注釋代碼+核心思想講解)——pytorch實現(xiàn)

    ? ? ?這期博客咱們來學(xué)習(xí)一下Shufflenet系列輕量級卷積神經(jīng)網(wǎng)絡(luò),Shufflenet v1 、Shufflenet v2。 本博客代碼可以直接生成訓(xùn)練集和測試集的損失和準確率的折線圖,便于寫論文使用。 論文下載鏈接: Shufflene系列輕量級卷積神經(jīng)網(wǎng)絡(luò)由曠世提出,也是非常有趣的輕量級卷積神經(jīng)網(wǎng)

    2024年02月01日
    瀏覽(37)
  • UNet-肝臟腫瘤圖像語義分割

    UNet-肝臟腫瘤圖像語義分割

    目錄 一. 語義分割 二. 數(shù)據(jù)集 三. 數(shù)據(jù)增強 圖像數(shù)據(jù)處理步驟 CT圖像增強方法 :windowing方法 直方圖均衡化 獲取掩膜圖像深度 在腫瘤CT圖中提取腫瘤 保存腫瘤數(shù)據(jù) ?四. 數(shù)據(jù)加載 數(shù)據(jù)批處理 ?編輯?編輯 數(shù)據(jù)集加載 ??五. UNet神經(jīng)網(wǎng)絡(luò)模型搭建 ? ? ? ? ?單張圖片預(yù)測圖

    2024年02月04日
    瀏覽(88)
  • 提升圖像分割精度:學(xué)習(xí)UNet++算法

    提升圖像分割精度:學(xué)習(xí)UNet++算法

    由于工作需要對 UNet++ 算法進行調(diào)參,對規(guī)則做較大的修改,初次涉及,有誤的地方,請各位大佬指教哈。 1.1 什么是 UNet++ 算法 UNet++ 算法是基于 UNet 算法的改進版本,旨在提高圖像分割的性能和效果。它由 Zhou et al. 在論文 “ UNet++: A Nested U-Net Architecture for Medical Image Segment

    2024年02月03日
    瀏覽(20)
  • SE、CBAM、ECA注意力機制(網(wǎng)絡(luò)結(jié)構(gòu)詳解+詳細注釋代碼+核心思想講解+注意力機制優(yōu)化神經(jīng)網(wǎng)絡(luò)方法)——pytorch實現(xiàn)

    SE、CBAM、ECA注意力機制(網(wǎng)絡(luò)結(jié)構(gòu)詳解+詳細注釋代碼+核心思想講解+注意力機制優(yōu)化神經(jīng)網(wǎng)絡(luò)方法)——pytorch實現(xiàn)

    ? ? ? ?這期博客我們來學(xué)習(xí)一下神秘已久的注意力機制,剛開始接觸注意力機制的時候,感覺很有意思,事實上學(xué)會之后會發(fā)現(xiàn)比想象中的要簡單,復(fù)雜的注意力機制后續(xù)會講解,這期博客先講解最常見的三種SE、CBAM、ECA注意力機制。 ? ? ? ?注意力機制更詳細的可以被稱

    2024年02月07日
    瀏覽(29)
  • 圖像分割Unet算法及其Pytorch實現(xiàn)

    圖像分割Unet算法及其Pytorch實現(xiàn)

    UNet是一種用于圖像分割的神經(jīng)網(wǎng)絡(luò),由于這個算法前后兩個部分在處理上比較對稱,類似一個U形,如下圖所示,故稱之為Unet,論文鏈接:U-Net: Convolutional Networks for Biomedical Image Segmentation,全文僅8頁。 從此圖可以看出,左邊的基礎(chǔ)操作是兩次 3 × 3 3times3 3 × 3 卷積后池化,

    2024年01月22日
    瀏覽(21)
  • 【圖像分割】Unet-ConvLstm利用時序信息進行視頻分割

    【圖像分割】Unet-ConvLstm利用時序信息進行視頻分割

    文章: Exploiting Temporality for Semi-Supervised Video Segmentation 代碼: https://github.com/mhashas/Exploiting-Temporality-For-Semi-Supervised-Video-Segmentation 理解: 使用單幀標(biāo)注,對視頻進行分割。利用時間維度信息來推斷空間信息。將傳統(tǒng)FCN轉(zhuǎn)化成時間-空間FCN。 方法: 通過FCN語義分割網(wǎng)絡(luò),對時間

    2023年04月27日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包