国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

醫(yī)學(xué)圖像分割之MedNeXt

這篇具有很好參考價(jià)值的文章主要介紹了醫(yī)學(xué)圖像分割之MedNeXt。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

論文:MedNeXt: Transformer-driven Scaling of ConvNets for Medical Image Segmentation

ConvNeXt網(wǎng)絡(luò)是一種借鑒Transformer的思想進(jìn)行了改進(jìn)實(shí)現(xiàn)的全卷積網(wǎng)絡(luò),其通過(guò)全卷積網(wǎng)絡(luò)和逆向殘差瓶頸單元的設(shè)計(jì),可以實(shí)現(xiàn)比較大的空間感受野。本文在此基礎(chǔ)上提出了新的可伸縮,標(biāo)準(zhǔn)化的網(wǎng)絡(luò)結(jié)構(gòu)MedNeXt。

MedNeXt是一個(gè)全卷積的Encoder-Decoder模式的醫(yī)學(xué)圖像分割網(wǎng)絡(luò),適用于2d,3d的醫(yī)學(xué)圖像分割。模型內(nèi)部ConvNeXt上采樣,ConvNeXt下采樣模塊可以更好的實(shí)現(xiàn)特征的傳遞。同時(shí)論文提出了UpKern方法來(lái)通過(guò)小卷積核對(duì)大卷積核進(jìn)行初始化來(lái)反之少量數(shù)據(jù)訓(xùn)練時(shí)候的模型飽和問(wèn)題。MedNeXt還是可以自由伸縮的模型,支持多個(gè)維度(depth, width, kernel size)的伸縮來(lái)適應(yīng)不同的應(yīng)用場(chǎng)合。ConvNeXt在效果上也是略優(yōu)于nnUNet
?

主要貢獻(xiàn):

(1)利用ConvNeXt這種全卷積網(wǎng)絡(luò)的思想,設(shè)計(jì)了一個(gè)純卷積模塊(purely of ConvNeXt blocks)組成的網(wǎng)絡(luò)結(jié)構(gòu)MedNeXt。

(2)有別于正常的上采樣,下采樣模塊,論文提出了逆向殘差瓶頸單元(Residual Inverted Bottlenecks),使用該模塊來(lái)實(shí)現(xiàn)上下采樣操作。該模塊有助于保存豐富的特征同時(shí)提高了梯度的傳遞效果。

(3)提出了一個(gè)簡(jiǎn)單高效的不同大小kernel的參數(shù)初始化方法UpKern,保證模型具有較好的初始化。

(4)提出了模型伸縮的方法(Compound Scaling),保證了模型在寬度width (channels),感受野receptive field (kernel size) , 深度depth (number of layers)等方向的伸縮。

網(wǎng)絡(luò)結(jié)構(gòu):

醫(yī)學(xué)圖像分割之MedNeXt

網(wǎng)絡(luò)的整體設(shè)計(jì)還是全卷積編碼器-解碼器這種U型結(jié)構(gòu)。如果是3d分割輸入為128*128*128,如果是2d分割輸入為512*512。

其中R代表通道的擴(kuò)展率,C表示通道數(shù),B表示block的堆疊次數(shù),L表示輸入的分辨率大小。

Steam block(粉色):

由于MedNeXt網(wǎng)絡(luò)同時(shí)支持2d,3d的分割任務(wù)。由于是全卷積的設(shè)計(jì)思想,所以不同輸入圖像的寬,高不會(huì)產(chǎn)生影響,但是不同的通道數(shù)卻是會(huì)對(duì)模型產(chǎn)生影響。如果做到訓(xùn)練一個(gè)預(yù)訓(xùn)練模型,同時(shí)兼任2d,3d任務(wù)呢?這就是steam模塊的作用。該模塊通過(guò)一個(gè)1*1*1的卷積實(shí)現(xiàn),可以實(shí)現(xiàn)將不同通道數(shù)的輸入都?jí)嚎s在同樣的通道數(shù)目上,這樣就保證了模型參數(shù)的可復(fù)用。

MedNeXt block(黃色):

該模塊整體是一個(gè)逆向的殘差模塊,模塊先經(jīng)過(guò)一個(gè)stride=1的深度可分離卷積(DW),然后做一個(gè)GroupNorm操作,這里有別于Swin-Transformers中的LayerNorm操作。這樣做的目的是為了保證小batch訓(xùn)練的穩(wěn)定性。然后再經(jīng)過(guò)一個(gè)1*1*1卷積,對(duì)通道數(shù)進(jìn)行R倍增加,并基于GELU激活,最后再經(jīng)過(guò)一個(gè)1*1*1,對(duì)通道數(shù)進(jìn)行壓縮,最終保證輸入的通道數(shù)等于輸出的通道數(shù),輸入的分辨率等于輸出的分辨率。最后將該分支的輸出和shortcut直連的輸出進(jìn)行匯合,得到最終的模塊輸出。

MedNeXt 2x Down block(藍(lán)色):

該模塊與MedNeXt block的區(qū)別有2點(diǎn)。第1個(gè)區(qū)別是輸入部分換為stride=2的深度可分離卷積(DW),實(shí)現(xiàn)了網(wǎng)絡(luò)的下采樣操作。第2個(gè)區(qū)別是shortcut分支加入了1*1*1卷積保證輸出的通道數(shù)2倍增加,以及最后一個(gè)1*1*1卷積實(shí)現(xiàn)了通道數(shù)的2倍增加。最終輸入特征通過(guò)MedNeXt 2x Up block可以實(shí)現(xiàn)2倍的下采樣,通道2倍的升維。

MedNeXt 2x Up block(綠色):

該模塊與MedNeXt block的區(qū)別有2點(diǎn)。第1個(gè)區(qū)別是輸入部分換為stride=2的深度可分離反卷積(DW ConvTranspose),實(shí)現(xiàn)了網(wǎng)絡(luò)的上采樣操作。第2個(gè)區(qū)別是shortcut分支加入了1*1*1卷積保證輸出的通道數(shù)2倍減少,以及最后一個(gè)1*1*1卷積實(shí)現(xiàn)了通道數(shù)的2倍減少。最終輸入特征通過(guò)MedNeXt 2x Down block可以實(shí)現(xiàn)2倍的上采樣,通道2倍的降維。

Output/Deep Supervision block(紫色):

該模塊通過(guò)1*1*1卷積實(shí)現(xiàn)將特征縮放到classes維度。

UpKern:

Swin Transformer V2中大的attention-window的初始化是使用小的attention-window進(jìn)行初始化的。偏置參數(shù) B大小為(2M-1)×(2M-1),M表示attention-window中的patch個(gè)數(shù),不同大小窗口的B是不一樣的,這里也是通過(guò)空間插值(spatially interpolating)的方法進(jìn)行實(shí)現(xiàn)的。本文的UpKern思想就來(lái)源于此。對(duì)于一樣大小的卷積核使用直接復(fù)制權(quán)值的方法進(jìn)行初始化,對(duì)于比較大的卷積核,通過(guò)對(duì)小的卷積核進(jìn)行三線插值得到大的卷積核。通過(guò)這樣的初始化方法可以避免模型的性能飽和。

論文給出了Pytorch版本的實(shí)現(xiàn),?

import torch . functional as F
def upkern_init_load_weights ( network , pretrained_net ):
    pretrn_dct = pretrained_net . state_dict ()
    model_dct = network . state_dict ()
    for k in model_dct . keys ():
        # Only common keys and core algorithm in Demo code
        if k in model_dct . keys () and k in pretrn_dct . keys ():
            inc1 , outc1 , * spt_dims1 = model_dct [k]. shape
            inc2 , outc2 , * spt_dims2 = pretrn_dct [k]. shape
            if spt_dims1 == spt_dims2 : # standard init
                model_dct [k] = pretrn_dct [k]
            else : # Upsampled kernel init
                model_dct [k] = F. interpolate (pretrn_dct [k],size = spt_dims1 ,mode =’trilinear ’)
    network . load_state_dict ( model_dct )
    return network

Compound Scaling of Depth, Width and Receptive Field

本文的模型通過(guò)調(diào)節(jié)block count (B)來(lái)調(diào)節(jié)深度(depth),調(diào)節(jié)expansion ratio (R) 來(lái)調(diào)節(jié)寬度(width),調(diào)節(jié)kernel size (k) 來(lái)調(diào)節(jié)感受野(receptive field size)。最終實(shí)現(xiàn)模型的可伸縮擴(kuò)展。最終提出了S,B,M,L四種不同大小的網(wǎng)絡(luò)來(lái)適應(yīng)不同應(yīng)用場(chǎng)景。

醫(yī)學(xué)圖像分割之MedNeXt

實(shí)驗(yàn)結(jié)果:?

醫(yī)學(xué)圖像分割之MedNeXt

總結(jié):

本文提出了一種具備高度可擴(kuò)展性的類ConvNeXt 3D 分割架構(gòu),其在有限的醫(yī)學(xué)圖像數(shù)據(jù)集上優(yōu)于其它 7 個(gè)頂流方法,當(dāng)中就包含了非常強(qiáng)的nnUNet。MedNeXt設(shè)計(jì)作為標(biāo)準(zhǔn)卷積塊的有效替代,完全可作為醫(yī)學(xué)圖像分割領(lǐng)域的新網(wǎng)絡(luò)架構(gòu)標(biāo)桿之作!

?文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-403349.html

到了這里,關(guān)于醫(yī)學(xué)圖像分割之MedNeXt的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【半監(jiān)督醫(yī)學(xué)圖像分割 2023 】UCMT 論文翻譯

    【半監(jiān)督醫(yī)學(xué)圖像分割 2023 】UCMT 論文翻譯

    論文題目:Co-training with High-Confidence Pseudo Labels for Semi-supervised Medical Image Segmentation 中文題目:基于高置信度偽標(biāo)簽的聯(lián)合訓(xùn)練半監(jiān)督醫(yī)學(xué)圖像分割 論文鏈接:https://arxiv.org/abs/2301.04465 論文代碼:https://github.com/Senyh/UCMT 發(fā)表時(shí)間:2023年1月 論文團(tuán)隊(duì):東北大學(xué)福建師范大學(xué)阿

    2024年02月06日
    瀏覽(26)
  • 【論文速遞】WACV2023 - 循環(huán)相似注意力的小樣本醫(yī)學(xué)圖像分割

    【論文速遞】WACV2023 - 循環(huán)相似注意力的小樣本醫(yī)學(xué)圖像分割

    【論文原文】 :Few-shot Medical Image Segmentation with Cycle-resemblance Attention 博主: 小樣本學(xué)習(xí),語(yǔ)義分割,自監(jiān)督,原型 推薦相關(guān)論文: 近年來(lái),由于醫(yī)學(xué)影像應(yīng)用需求的不斷提高以及對(duì)醫(yī)學(xué)圖像標(biāo)注的專業(yè)要求,小樣本學(xué)習(xí)在醫(yī)學(xué)圖像語(yǔ)義分割領(lǐng)域越來(lái)越受到重視。為了

    2024年02月05日
    瀏覽(24)
  • 論文閱讀筆記——A2FSeg:用于醫(yī)學(xué)圖像分割自適應(yīng)多模態(tài)融合網(wǎng)絡(luò)

    論文閱讀筆記——A2FSeg:用于醫(yī)學(xué)圖像分割自適應(yīng)多模態(tài)融合網(wǎng)絡(luò)

    論文地址: https://www.semanticscholar.org/paper/A2FSeg%3A-Adaptive-Multi-modal-Fusion-Network-for-Wang-Hong/330f94e291a9b881ad14ca500f8d96e185d43b15 代碼倉(cāng)庫(kù): https://github.com/Zirui0623/A2FSeg/tree/main?tab=readme-ov-file 磁共振成像(MRI)在多模式腦腫瘤分割中發(fā)揮著重要作用。然而,缺失模態(tài)在臨床診斷中非常常

    2024年03月13日
    瀏覽(44)
  • 醫(yī)學(xué)圖像分割方向優(yōu)質(zhì)的論文及其代碼【Medical Image Segmentation】UNet、transformer、計(jì)算機(jī)視覺(jué)

    醫(yī)學(xué)圖像分割方向優(yōu)質(zhì)的論文及其代碼【Medical Image Segmentation】UNet、transformer、計(jì)算機(jī)視覺(jué)

    ? 作者:Yifei Chen, Chenyan Zhang, Yifan Ke, Yiyu Huang, Xuezhou Dai, Feiwei Qin? ?中文摘要: 由于收集過(guò)程具有挑戰(zhàn)性、標(biāo)記成本高、信噪比低以及生物醫(yī)學(xué)圖像特征復(fù)雜,傳統(tǒng)的監(jiān)督學(xué)習(xí)方法在醫(yī)學(xué)圖像分割方面歷來(lái)遇到一定的限制。 本文提出了一種半監(jiān)督模型DFCPS,創(chuàng)新性地融合了

    2024年04月13日
    瀏覽(96)
  • 【論文閱讀】通過(guò)3D和2D網(wǎng)絡(luò)的交叉示教實(shí)現(xiàn)稀疏標(biāo)注的3D醫(yī)學(xué)圖像分割(CVPR2023)

    【論文閱讀】通過(guò)3D和2D網(wǎng)絡(luò)的交叉示教實(shí)現(xiàn)稀疏標(biāo)注的3D醫(yī)學(xué)圖像分割(CVPR2023)

    論文:3D Medical Image Segmentation with Sparse Annotation via Cross-Teaching between 3D and 2D Networks 代碼:https://github.com/hengcai-nju/3d2dct 問(wèn)題1 :醫(yī)學(xué)圖像分割通常需要大量且精確標(biāo)注的數(shù)據(jù)集。但是獲取像素級(jí)標(biāo)注是一項(xiàng)勞動(dòng)密集型的任務(wù),需要領(lǐng)域?qū)<腋冻鼍薮蟮呐?,這使得在實(shí)際臨床場(chǎng)

    2024年02月05日
    瀏覽(82)
  • Python Unet ++ :醫(yī)學(xué)圖像分割,醫(yī)學(xué)細(xì)胞分割,Unet醫(yī)學(xué)圖像處理,語(yǔ)義分割

    Python Unet ++ :醫(yī)學(xué)圖像分割,醫(yī)學(xué)細(xì)胞分割,Unet醫(yī)學(xué)圖像處理,語(yǔ)義分割

    一,語(yǔ)義分割:分割領(lǐng)域前幾年的發(fā)展 圖像分割是機(jī)器視覺(jué)任務(wù)的一個(gè)重要基礎(chǔ)任務(wù),在圖像分析、自動(dòng)駕駛、視頻監(jiān)控等方面都有很重要的作用。圖像分割可以被看成一個(gè)分類任務(wù),需要給每個(gè)像素進(jìn)行分類,所以就比圖像分類任務(wù)更加復(fù)雜。此處主要介紹 Deep Learning-ba

    2024年02月16日
    瀏覽(98)
  • 【醫(yī)學(xué)圖像】圖像分割系列.2 (diffusion)

    【醫(yī)學(xué)圖像】圖像分割系列.2 (diffusion)

    介紹幾篇使用diffusion來(lái)實(shí)現(xiàn)醫(yī)學(xué)圖像分割的論文:DARL(ICLR2023),MedSegDiff(MIDL2023) MedSegDiff-V2(arXiv2023),ImgX-DiffSeg(arXiv2023) 基礎(chǔ)概念: 一文弄懂 Diffusion Model (qq.com)。 表示學(xué)習(xí)(representation learning)初印象 - 知乎 (zhihu.com)。 10分鐘快速入門PyTorch (10) - 知乎 (zhihu.com)。 解讀

    2024年02月07日
    瀏覽(44)
  • 醫(yī)學(xué)圖像分割

    醫(yī)學(xué)圖像分割

    方法 內(nèi)容 監(jiān)督學(xué)習(xí) 骨干網(wǎng)絡(luò)的選擇、網(wǎng)絡(luò)塊的設(shè)計(jì)、損失函數(shù)的改進(jìn) 弱監(jiān)督學(xué)習(xí) 數(shù)據(jù)增強(qiáng)、遷移學(xué)習(xí)、交互式分割研究 醫(yī)學(xué)圖像分割的難點(diǎn): 醫(yī)學(xué)圖像的特征提取,因?yàn)獒t(yī)學(xué)影像中存在模糊、噪聲、對(duì)比度低等問(wèn)題。–CNN 醫(yī)學(xué)圖像通常含有噪聲且邊界模糊。–U-Net 目標(biāo)

    2024年02月04日
    瀏覽(20)
  • 深度學(xué)習(xí)實(shí)驗(yàn)-3d醫(yī)學(xué)圖像分割

    實(shí)驗(yàn)四 基于nnU-Net模型的3D醫(yī)學(xué)圖像分割實(shí)驗(yàn) 腹部多器官分割一直是醫(yī)學(xué)圖像分析領(lǐng)域最活躍的研究領(lǐng)域之一,其作為一項(xiàng)基礎(chǔ)技術(shù),在支持疾病診斷,治療規(guī)劃等計(jì)算機(jī)輔助技術(shù)發(fā)揮著重要作用。近年來(lái),基于深度學(xué)習(xí)的方法在該領(lǐng)域中獲得了巨大成功。本實(shí)驗(yàn)數(shù)據(jù)集為多

    2024年02月07日
    瀏覽(99)
  • 通用醫(yī)學(xué)圖像分割模型UniverSeg

    通用醫(yī)學(xué)圖像分割模型UniverSeg

    雖然深度學(xué)習(xí)模型已經(jīng)成為醫(yī)學(xué)圖像分割的主要方法,但它們通常無(wú)法推廣到涉及新解剖結(jié)構(gòu)、圖像模態(tài)或標(biāo)簽的unseen分割任務(wù)。給定一個(gè)新的分割任務(wù),研究人員通常必須訓(xùn)練或微調(diào)模型,這很耗時(shí),并對(duì)臨床研究人員構(gòu)成了巨大障礙,因?yàn)樗麄兺狈τ?xùn)練神經(jīng)網(wǎng)絡(luò)的資

    2024年02月04日
    瀏覽(22)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包