国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

U-net網(wǎng)絡(luò)詳解

這篇具有很好參考價(jià)值的文章主要介紹了U-net網(wǎng)絡(luò)詳解。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

論文地址:https://arxiv.org/abs/1505.04597

學(xué)習(xí)視頻:U-Net網(wǎng)絡(luò)結(jié)構(gòu)講解(語義分割)_嗶哩嗶哩_bilibili

整體結(jié)構(gòu)

如下圖,U-net結(jié)構(gòu)為Encoder-Decoder,左邊為Encoder部分,作用是下采樣,右邊為Decoder部分,作用為上采樣

在圖中每一個(gè)長條代表一個(gè)特征層,每一個(gè)箭頭對應(yīng)于一種操作

U-net網(wǎng)絡(luò)詳解

Encoder部分也即下采樣部分

第一步

如下圖,來看左邊部分第一層,藍(lán)色箭頭代表卷積層,卷積核大小為3*3,padding = 0,步長為1,經(jīng)過兩層卷積層大小每經(jīng)過一層減小2,高和寬變成了568*568通道大小變成了64

U-net網(wǎng)絡(luò)詳解

之后經(jīng)過紅色箭頭,表示最大池化層,大小縮小為一半為284*284

第二步

此時(shí)再進(jìn)行2次卷積,將channel翻倍,如下圖得到280*280*128的特征圖

U-net網(wǎng)絡(luò)詳解

然后再經(jīng)過一個(gè)最大池化層得到128*128

第三步

對上面280*280的特征圖繼續(xù)進(jìn)行卷積,得到136*136*256,如下圖

U-net網(wǎng)絡(luò)詳解

再經(jīng)過最大池化層得到68*68的特征圖

第四步

對68*68*256的特征圖繼續(xù)進(jìn)行卷積操作得到64*64*512的特征圖,如下

U-net網(wǎng)絡(luò)詳解

再經(jīng)過最大池化層得到32*32的特征圖

第五步

對32*32*512的特征層進(jìn)行卷積得到28*28*1024的特征層

U-net網(wǎng)絡(luò)詳解

Decoder部分也即上采樣部分

至此下采樣結(jié)束接下來是上采樣,這里上采樣使用的是轉(zhuǎn)置卷積

第一步

圖中綠色箭頭代表上采樣,每一次上采樣會將高和寬擴(kuò)大兩倍,通道數(shù)減半,變成56*56*512,同時(shí)灰色箭頭表示將左邊對應(yīng)部分的特征圖進(jìn)行中心裁剪出一塊與右邊一樣大小,與右邊進(jìn)行拼接,得到56*56*1024的特征圖,然后經(jīng)過3*3大小的卷積,將特征圖通道數(shù)減半,同時(shí)會繼續(xù)縮小高和寬為52*52,最終經(jīng)過這一步的decoder得到52*52*512大小的特征圖

U-net網(wǎng)絡(luò)詳解

接下來進(jìn)行轉(zhuǎn)置卷積將特征圖大小調(diào)整為104*104*256

第二步

此時(shí)與剛剛上采樣的第一步類似,對左邊部分進(jìn)行中心裁剪拼接得到104*104*512,如圖,再進(jìn)行兩層卷積操作得到100*100*256的特征圖

U-net網(wǎng)絡(luò)詳解

接下來進(jìn)行轉(zhuǎn)置卷積將特征圖大小調(diào)整為200*200*128

第三步

此時(shí)與剛剛上采樣的第二步類似,對左邊部分進(jìn)行中心裁剪拼接得到200*200*256,如圖,再進(jìn)行兩層卷積操作得到196*196*128的特征圖

U-net網(wǎng)絡(luò)詳解

接下來繼續(xù)上采樣,使用轉(zhuǎn)置卷積得到392*392*64大小的特征圖

第四步

此時(shí)與剛剛上采樣的第三步類似,對對應(yīng)左邊部分進(jìn)行中心裁剪拼接得到392*392*128,如圖,再進(jìn)行兩層卷積操作得到388*388*64的特征圖,如圖

U-net網(wǎng)絡(luò)詳解

最后進(jìn)行一個(gè)1*1的卷積操作,原論文只有兩個(gè)類別一個(gè)背景一個(gè)是要分割的物體,卷積核個(gè)數(shù)因此為2,最終得到的輸出是388*388*2的分割圖

實(shí)際U-net網(wǎng)絡(luò)

可以看到在原文中,輸入和輸出大小不一樣

U-net網(wǎng)絡(luò)詳解

如圖對于這個(gè)細(xì)胞分割,實(shí)際上要黃色部分的分割圖要用到藍(lán)色框區(qū)域的信息,但是在圖像邊緣往往是沒有這些信息,這時(shí)圖像邊緣信息缺失了,這時(shí)需要鏡像對應(yīng)部分補(bǔ)全缺失信息,才能進(jìn)行分割。而且對于大分辨率的圖像分割時(shí),往往分割時(shí)要有overlap部分,如下圖。

U-net網(wǎng)絡(luò)詳解

然而,事實(shí)上,當(dāng)今主流U-net網(wǎng)絡(luò)在卷積的時(shí)候會有padding,來保證輸入特征圖大小與輸出特征圖大小一樣,這樣就不需要考慮邊緣缺失問題了。文章來源地址http://www.zghlxwxcb.cn/news/detail-433329.html

到了這里,關(guān)于U-net網(wǎng)絡(luò)詳解的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • U-net網(wǎng)絡(luò)學(xué)習(xí)記錄

    U-net網(wǎng)絡(luò)學(xué)習(xí)記錄

    本質(zhì)上是一個(gè)用于圖像分割的神經(jīng)網(wǎng)絡(luò) 輸入是一幅圖,輸出是目標(biāo)的分割結(jié)果。繼續(xù)簡化就是,一幅圖,編碼,或者說降采樣,然后解碼,也就是升采樣,然后輸出一個(gè)分割結(jié)果。根據(jù)結(jié)果和真實(shí)分割的差異,反向傳播來訓(xùn)練這個(gè)分割網(wǎng)絡(luò) 既然輸入和輸出都是相同大小的圖

    2024年02月09日
    瀏覽(18)
  • 論文閱讀筆記——SMU-Net:面向缺失模態(tài)腦腫瘤分割的樣式匹配U-Net

    論文閱讀筆記——SMU-Net:面向缺失模態(tài)腦腫瘤分割的樣式匹配U-Net

    論文地址:https://arxiv.org/abs/2204.02961v1 腦膠質(zhì)瘤:https://baike.baidu.com/item/%E8%84%91%E8%83%B6%E8%B4%A8%E7%98%A4/7242862 互信息:https://zhuanlan.zhihu.com/p/240676850 Gram矩陣:https://zhuanlan.zhihu.com/p/187345192 背景: 絕大多數(shù)腦腫瘤都可以通過磁共振成像進(jìn)行唯一的鑒別。 多模態(tài)MRI的好處: 每一種模態(tài)

    2024年01月25日
    瀏覽(93)
  • 論文學(xué)習(xí)——U-Net: Convolutional Networks for Biomedical Image Segmentation

    論文學(xué)習(xí)——U-Net: Convolutional Networks for Biomedical Image Segmentation

    采用端到端的結(jié)構(gòu),通過FCN(最后一層仍然是通過卷積完成),最后輸出圖像。 通過編碼(下采樣)-解碼(上采樣)形成一個(gè)“U”型結(jié)構(gòu)。每次下采樣時(shí),先進(jìn)行兩次卷積(通道數(shù)不變),然后通過一次池化層(也可以通過卷積)處理(長寬減半,通道數(shù)加倍);在每次上

    2024年02月13日
    瀏覽(21)
  • 基于U-Net網(wǎng)絡(luò)實(shí)現(xiàn)圖像分割

    基于U-Net網(wǎng)絡(luò)實(shí)現(xiàn)圖像分割

    黎長淼,男,西安工程大學(xué)電子信息學(xué)院,2022級研究生 研究方向:控制科學(xué)與工程 電子郵件:1043626870@qq.com 陳夢丹,女,西安工程大學(xué)電子信息學(xué)院,2022級碩士研究生,張宏偉人工智能課題組 研究方向:機(jī)器視覺與人工智能 電子郵件:1169738496@qq.com U-Net是2015年提出的一種

    2024年02月09日
    瀏覽(16)
  • U-Net網(wǎng)絡(luò)結(jié)構(gòu)解析和代碼解析

    U-Net網(wǎng)絡(luò)結(jié)構(gòu)解析和代碼解析

    在語義分割領(lǐng)域,基于深度學(xué)習(xí)的語義分割算法開山之作是FCN(Fully Convolutional Networks for Semantic Segmentation),而U-Net是遵循FCN的原理,并進(jìn)行了相應(yīng)的改進(jìn),使其適應(yīng)小樣本的簡單分割問題。U-Net網(wǎng)絡(luò)在醫(yī)療影像領(lǐng)域的應(yīng)用十分廣泛,成為了大多數(shù)醫(yī)療影像語義分割任務(wù)的ba

    2024年02月05日
    瀏覽(21)
  • notepad++官網(wǎng)地址 https://notepad-plus-plus.org/;notepad++ 官網(wǎng)地址 https://notepad-plus-plus.org/

    notepad++ 官網(wǎng)地址 https://notepad-plus-plus.org/ 今天想進(jìn)官網(wǎng)下載notepad++ ,卻發(fā)現(xiàn)百度搜索官網(wǎng)都是出來很多亂七八糟的,就自己記錄一下 notepad++官網(wǎng):https://notepad-plus-plus.org/ notepad++項(xiàng)目主頁:https://github.com/notepad-plus-plus/notepad-plus-plus/

    2024年02月11日
    瀏覽(20)
  • U-Net網(wǎng)絡(luò)模型改進(jìn)(添加通道與空間注意力機(jī)制)---親測有效,指標(biāo)提升

    U-Net網(wǎng)絡(luò)模型改進(jìn)(添加通道與空間注意力機(jī)制)---親測有效,指標(biāo)提升

    U-Net網(wǎng)絡(luò)模型(注意力改進(jìn)版本) 這一段時(shí)間做項(xiàng)目用到了U-Net網(wǎng)絡(luò)模型,但是原始的U-Net網(wǎng)絡(luò)還有很大的改良空間,在卷積下采樣的過程中加入了通道注意力和空間注意力 。 常規(guī)的U-net模型如下圖: 紅色箭頭為可以添加的地方:即下采樣之間。 通道空間注意力是一個(gè)即插即

    2024年03月15日
    瀏覽(19)
  • 文獻(xiàn)速遞:生成對抗網(wǎng)絡(luò)醫(yī)學(xué)影像中的應(yīng)用——3DGAUnet:一種帶有基于3D U-Net的生成器的3D生成對抗網(wǎng)絡(luò)

    文獻(xiàn)速遞:生成對抗網(wǎng)絡(luò)醫(yī)學(xué)影像中的應(yīng)用——3DGAUnet:一種帶有基于3D U-Net的生成器的3D生成對抗網(wǎng)絡(luò)

    給大家分享文獻(xiàn)的主題是生成對抗網(wǎng)絡(luò)(Generative adversarial networks, GANs)在醫(yī)學(xué)影像中的應(yīng)用。文獻(xiàn)的研究內(nèi)容包括同模態(tài)影像生成、跨模態(tài)影像生成、GAN在分類和分割方面的應(yīng)用等。生成對抗網(wǎng)絡(luò)與其他方法相比展示出了優(yōu)越的數(shù)據(jù)生成能力,使它們在醫(yī)學(xué)圖像應(yīng)用中廣受歡

    2024年02月02日
    瀏覽(24)
  • 圖像分割算法U-net

    圖像分割算法U-net

    @[TOC] UNet是一種用于圖像分割任務(wù)的深度學(xué)習(xí)模型,最初由Olaf Ronneberger等人在2015年提出。它的名字來源于其U形狀的網(wǎng)絡(luò)結(jié)構(gòu)。 UNet的主要特點(diǎn)是它使用了編碼器和解碼器結(jié)構(gòu),其中編碼器部分由一系列卷積層和池化層組成,可以對輸入圖像進(jìn)行特征提取和壓縮。解碼器部分則

    2024年01月23日
    瀏覽(19)
  • 醫(yī)學(xué)圖像分割綜述:U-Net系列

    醫(yī)學(xué)圖像分割綜述:U-Net系列

    論文地址 代碼地址 醫(yī)學(xué)圖像自動(dòng)分割是醫(yī)學(xué)領(lǐng)域的一個(gè)重要課題,也是計(jì)算機(jī)輔助診斷范式的一個(gè)重要對應(yīng)。U-Net是最廣泛的圖像分割架構(gòu),由于其靈活性,優(yōu)化的模塊化設(shè)計(jì),并在所有醫(yī)學(xué)圖像模式的成功。多年來,U-Net模型得到了學(xué)術(shù)界和工業(yè)界研究人員的極大關(guān)注。該

    2024年02月05日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包