国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

醫(yī)學(xué)圖像分割之Attention U-Net

這篇具有很好參考價值的文章主要介紹了醫(yī)學(xué)圖像分割之Attention U-Net。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

目錄

一、背景

二、問題

三、解決問題

四、Attention U-Net網(wǎng)絡(luò)結(jié)構(gòu)


? ? ? ? 簡單總結(jié)Attention U-Net的操作:增強(qiáng)目標(biāo)區(qū)域的特征值,抑制背景區(qū)域的目標(biāo)值。抑制也就是設(shè)為了0。

一、背景

? ? ? ? 為了捕獲到足夠大的、可接受的范圍和語義上下文信息,在標(biāo)準(zhǔn)的CNN結(jié)構(gòu)中,特征圖被逐步下采樣,以獲得粗粒度的特征圖,擴(kuò)大感受野范圍。粗粒度特征圖能反應(yīng)空間信息。雖然粗粒度特征圖能在全局尺度上進(jìn)行模型定位,反應(yīng)組織間的關(guān)系,但是當(dāng)目標(biāo)是不同形狀的小目標(biāo)時,減少錯正率保持著困難。所以要提高分割精度。

二、問題

  1. 為提升精度,當(dāng)前的分割框架依賴額外的預(yù)先定位模型,將任務(wù)分為目標(biāo)定位和后續(xù)分割。
  2. 全卷機(jī)網(wǎng)絡(luò)FCNs和U-Net是常見的網(wǎng)絡(luò)架構(gòu)。盡管他們有很好的表征性能,但是他們的結(jié)構(gòu)是多級級聯(lián)CNN,級聯(lián)框架提取ROI,對特定的ROI進(jìn)行稠密預(yù)測。這種方式會導(dǎo)致計(jì)算資源和模型參數(shù)的冗余使用。使用級聯(lián)的所有模型都會重復(fù)提取相似的低級特征。

三、解決問題

? ? ? ? 為解決以上兩個現(xiàn)狀問題,本文提出了注意力門Attention Gate(AG)。本文將AG加入到U-Net的跳躍連接中,通過較粗粒度的特征圖,獲得語義上下文信息,進(jìn)而對來自同層的encoder的特征圖中不相關(guān)的特征進(jìn)行抑制,提高模型對目標(biāo)區(qū)域的靈敏度和準(zhǔn)確性。(沒有提取ROI,也實(shí)現(xiàn)了目標(biāo)定位)

四、Attention U-Net網(wǎng)絡(luò)結(jié)構(gòu)

醫(yī)學(xué)圖像分割之Attention U-Net

圖1 AG的簡圖?

醫(yī)學(xué)圖像分割之Attention U-Net

圖2 AttentionU-Net網(wǎng)絡(luò)結(jié)構(gòu)

? ? ? ? Attention U-Net網(wǎng)絡(luò)結(jié)構(gòu),即在U-Net的跳躍連接上加入了Attention Gate模塊,通過跳躍連接提高顯示特征。從粗粒度尺度上提取信息用在門控中,以消除跳躍連接中的無關(guān)的和噪聲響應(yīng)。AGs在前向過程和反向過程期間過濾神經(jīng)元激活。背景區(qū)域的梯度在反向過程中向下加權(quán),較淺區(qū)域的模型參數(shù)被更新。為減少AGs的訓(xùn)練參數(shù)量和計(jì)算復(fù)雜度,執(zhí)行了線性變換。在較粗尺度上,AG提供器官的粗略輪廓。

? ? ? ? 編碼層和U-Net的編碼層操作一樣,此處不再過多講解。詳情見另一篇U-Net博客。

????????解碼層:拿D3舉例子,來介紹每層的具體實(shí)現(xiàn):

  1. (對D4上采樣,達(dá)到E3的分辨率)先D4上采樣,得到de4,此時de4的特征數(shù)量由512至256;
  2. (將D4、E3輸入到AG中,即跳躍連接處的操作)然后將de4與E3輸入到AG中,通過卷積操作,將de4的特征數(shù)量256降至128,E3的特征數(shù)量由256降至128,然后將de4與E3相加,得到psi,相加是為了對目標(biāo)區(qū)域做增強(qiáng)操作,即將目標(biāo)區(qū)域的特征值變大;然后對psi做relu操作,特征數(shù)量變?yōu)?56,此時還稱為psi。然后對psi通過卷積操作實(shí)現(xiàn)線性變換,特征數(shù)量由256變?yōu)?,做sigmoid操作,sigmoid的操作即結(jié)果非0即1,也就是將背景設(shè)為0,目標(biāo)區(qū)域設(shè)為1, 即實(shí)現(xiàn)了背景抑制的目的,消除跳躍連接中無關(guān)的和噪聲干擾,此時也實(shí)現(xiàn)了減少AG的訓(xùn)練參數(shù)量和計(jì)算復(fù)雜度,進(jìn)一步得到psi。然后將最初的E3與此時的psi相乘,就得到了對最初的E3做了背景抑制的處理,此時的結(jié)果稱為en3。(此步驟為AG的操作)
  3. (此時是D3出的操作)將通過AG處理的en3與上采樣后的de4進(jìn)行拼接操作,此時特征數(shù)量由256變?yōu)?12;之后做兩次conv3*3,特征通道變?yōu)?56,完成D3部分的操作。

?????????D1的最后,還有一個conv1*1,用來實(shí)現(xiàn)將特征數(shù)量由64變?yōu)樾枰臄?shù)量num_classes。

Attention U-Net的優(yōu)勢:

? ? ? ? 沒有多模型訓(xùn)練和大量的額外模型參數(shù)。文章來源地址http://www.zghlxwxcb.cn/news/detail-431407.html

到了這里,關(guān)于醫(yī)學(xué)圖像分割之Attention U-Net的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 基于U-Net網(wǎng)絡(luò)實(shí)現(xiàn)圖像分割

    基于U-Net網(wǎng)絡(luò)實(shí)現(xiàn)圖像分割

    黎長淼,男,西安工程大學(xué)電子信息學(xué)院,2022級研究生 研究方向:控制科學(xué)與工程 電子郵件:1043626870@qq.com 陳夢丹,女,西安工程大學(xué)電子信息學(xué)院,2022級碩士研究生,張宏偉人工智能課題組 研究方向:機(jī)器視覺與人工智能 電子郵件:1169738496@qq.com U-Net是2015年提出的一種

    2024年02月09日
    瀏覽(16)
  • 【圖像處理】經(jīng)營您的第一個U-Net以進(jìn)行圖像分割

    ????????AI廚師們,今天您將學(xué)習(xí)如何準(zhǔn)備計(jì)算機(jī)視覺中最重要的食譜之一:U-Net。本文將敘述:1 語義與實(shí)例分割,2 圖像分割中還使用了其他損失,例如Jaccard損失,焦點(diǎn)損失;3 如果2D圖像分割對您來說太容易了,您可以查看3D圖像分割,因?yàn)槟P鸵蟮枚?,因此要困難得

    2024年02月15日
    瀏覽(20)
  • 醫(yī)學(xué)圖像分割:U_Net 論文閱讀

    醫(yī)學(xué)圖像分割:U_Net 論文閱讀

    “U-Net: Convolutional Networks for Biomedical Image Segmentation” 是一篇由Olaf Ronneberger, Philipp Fischer, 和 Thomas Brox發(fā)表的論文,于2015年在MICCAI的醫(yī)學(xué)圖像計(jì)算和計(jì)算機(jī)輔助干預(yù)會議上提出。這篇論文介紹了一種新型的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)——U-Net,特別是為了處理醫(yī)學(xué)圖像分割問題而設(shè)計(jì)。

    2024年02月04日
    瀏覽(17)
  • 【半監(jiān)督醫(yī)學(xué)圖像分割 2023 MICCAI】SCP-Net

    【半監(jiān)督醫(yī)學(xué)圖像分割 2023 MICCAI】SCP-Net

    論文題目:Self-aware and Cross-sample Prototypical Learning for Semi-supervised Medical Image Segmentation 中文題目:自感知交叉樣本原型學(xué)習(xí)用于半監(jiān)督醫(yī)學(xué)圖像分割 論文鏈接:https://arxiv.org/abs/2305.16214 論文代碼: 論文團(tuán)隊(duì): 發(fā)表時間: DOI: 引用: 引用數(shù): 一致性學(xué)習(xí)在半監(jiān)督醫(yī)學(xué)圖像分割

    2024年02月12日
    瀏覽(18)
  • EPT-Net:用于3D醫(yī)學(xué)圖像分割的邊緣感知轉(zhuǎn)換器

    EPT-Net:用于3D醫(yī)學(xué)圖像分割的邊緣感知轉(zhuǎn)換器

    IEEE TRANSACTIONS ON MEDICAL IMAGING, VOL. 42, NO. 11, NOVEMBER 2023 卷積運(yùn)算的 內(nèi)在局部性 在建模長程依賴性方面存在局限性。盡管為序列到序列全局預(yù)測而設(shè)計(jì)的Transformer就是為了解決這個問題而誕生的,但由于 底層細(xì)節(jié)特征 不足,它可能會導(dǎo)致定位能力有限。此外,低級特征具有豐富

    2024年02月04日
    瀏覽(32)
  • 【3-D深度學(xué)習(xí):肺腫瘤分割】創(chuàng)建和訓(xùn)練 V-Net 神經(jīng)網(wǎng)絡(luò),并從 3D 醫(yī)學(xué)圖像中對肺腫瘤進(jìn)行語義分割研究(Matlab代碼實(shí)現(xiàn))

    【3-D深度學(xué)習(xí):肺腫瘤分割】創(chuàng)建和訓(xùn)練 V-Net 神經(jīng)網(wǎng)絡(luò),并從 3D 醫(yī)學(xué)圖像中對肺腫瘤進(jìn)行語義分割研究(Matlab代碼實(shí)現(xiàn))

    ????????? 歡迎來到本博客 ???????? ??博主優(yōu)勢: ?????? 博客內(nèi)容盡量做到思維縝密,邏輯清晰,為了方便讀者。 ?? 座右銘: 行百里者,半于九十。 ?????? 本文目錄如下: ?????? 目錄 ??1 概述 ??2 運(yùn)行結(jié)果 ??3?參考文獻(xiàn) ??4 Matlab代碼實(shí)現(xiàn) 使用

    2024年02月15日
    瀏覽(89)
  • Python Unet ++ :醫(yī)學(xué)圖像分割,醫(yī)學(xué)細(xì)胞分割,Unet醫(yī)學(xué)圖像處理,語義分割

    Python Unet ++ :醫(yī)學(xué)圖像分割,醫(yī)學(xué)細(xì)胞分割,Unet醫(yī)學(xué)圖像處理,語義分割

    一,語義分割:分割領(lǐng)域前幾年的發(fā)展 圖像分割是機(jī)器視覺任務(wù)的一個重要基礎(chǔ)任務(wù),在圖像分析、自動駕駛、視頻監(jiān)控等方面都有很重要的作用。圖像分割可以被看成一個分類任務(wù),需要給每個像素進(jìn)行分類,所以就比圖像分類任務(wù)更加復(fù)雜。此處主要介紹 Deep Learning-ba

    2024年02月16日
    瀏覽(98)
  • 詳解U-Net分割網(wǎng)絡(luò),提供詳細(xì)代碼技術(shù)細(xì)節(jié)及完整項(xiàng)目代碼

    詳解U-Net分割網(wǎng)絡(luò),提供詳細(xì)代碼技術(shù)細(xì)節(jié)及完整項(xiàng)目代碼

    一. 原始模型整體概述 U-Net網(wǎng)絡(luò)是Ronneberger等人在2015年發(fā)表于計(jì)算機(jī)醫(yī)學(xué)影像頂刊 MICCAI上的一篇論文,該論文首次提出了一種U型結(jié)構(gòu)來進(jìn)行圖像的語義分割,論文的下載鏈接如下:U-Net: Convolutional Networks for Biomedical Image Segmentation 該網(wǎng)絡(luò)贏得了2015年ISBI細(xì)胞跟蹤挑戰(zhàn)賽,一經(jīng)提

    2024年04月28日
    瀏覽(14)
  • DeU-Net: 用于三維心臟mri視頻分割的可變形(Deformable)U-Net

    DeU-Net: 用于三維心臟mri視頻分割的可變形(Deformable)U-Net

    論文鏈接:https://arxiv.org/abs/2007.06341 代碼鏈接:文章都看完了實(shí)在找不到代碼!好崩潰!好崩潰!已經(jīng)發(fā)郵件聯(lián)系作者! 心臟磁共振成像(MRI)的自動分割促進(jìn)了臨床應(yīng)用中高效、準(zhǔn)確的體積測量。然而,由于分辨率各向異性和邊界模糊(如右心室心內(nèi)膜),現(xiàn)有方法在心臟MRI三

    2024年02月09日
    瀏覽(13)
  • 論文閱讀筆記——SMU-Net:面向缺失模態(tài)腦腫瘤分割的樣式匹配U-Net

    論文閱讀筆記——SMU-Net:面向缺失模態(tài)腦腫瘤分割的樣式匹配U-Net

    論文地址:https://arxiv.org/abs/2204.02961v1 腦膠質(zhì)瘤:https://baike.baidu.com/item/%E8%84%91%E8%83%B6%E8%B4%A8%E7%98%A4/7242862 互信息:https://zhuanlan.zhihu.com/p/240676850 Gram矩陣:https://zhuanlan.zhihu.com/p/187345192 背景: 絕大多數(shù)腦腫瘤都可以通過磁共振成像進(jìn)行唯一的鑒別。 多模態(tài)MRI的好處: 每一種模態(tài)

    2024年01月25日
    瀏覽(93)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包