国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文閱讀筆記——A2FSeg:用于醫(yī)學(xué)圖像分割自適應(yīng)多模態(tài)融合網(wǎng)絡(luò)

這篇具有很好參考價(jià)值的文章主要介紹了論文閱讀筆記——A2FSeg:用于醫(yī)學(xué)圖像分割自適應(yīng)多模態(tài)融合網(wǎng)絡(luò)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

論文地址: https://www.semanticscholar.org/paper/A2FSeg%3A-Adaptive-Multi-modal-Fusion-Network-for-Wang-Hong/330f94e291a9b881ad14ca500f8d96e185d43b15
代碼倉庫: https://github.com/Zirui0623/A2FSeg/tree/main?tab=readme-ov-file

摘要:

磁共振成像(MRI)在多模式腦腫瘤分割中發(fā)揮著重要作用。然而,缺失模態(tài)在臨床診斷中非常常見,這將導(dǎo)致分割性能嚴(yán)重下降。在本文中,我們提出了一種用于腦腫瘤分割的簡單自適應(yīng)多模態(tài)融合網(wǎng)絡(luò),該網(wǎng)絡(luò)具有兩個(gè)階段的特征融合,包括簡單的平均融合和基于注意機(jī)制的自適應(yīng)融合。 兩種融合技術(shù)都能夠處理缺失模態(tài)的情況,并有助于改善分割結(jié)果,尤其是自適應(yīng)分割結(jié)果。我們?cè)?BraTS2020 數(shù)據(jù)集上評(píng)估我們的方法,與四種最新方法相比,在不完整的多模態(tài)腦腫瘤分割方面實(shí)現(xiàn)了最先進(jìn)的性能。我們的 A2FSeg(平均和自適應(yīng)融合分割網(wǎng)絡(luò))簡單而有效,能夠處理任意數(shù)量的圖像模態(tài)以實(shí)現(xiàn)不完整的多模態(tài)分割。

引言:

從醫(yī)學(xué)圖像掃描中提取腦腫瘤在進(jìn)一步分析和臨床診斷中發(fā)揮著重要作用。通常,腦腫瘤包括瘤周水腫、增強(qiáng)腫瘤和非增強(qiáng)腫瘤核心。由于不同的模態(tài)呈現(xiàn)出腦腫瘤成分的不同清晰度,因此在腦腫瘤分割任務(wù)中我們經(jīng)常使用多模態(tài)圖像掃描,例如T1、T1c、T2和Flair。已經(jīng)開展了使用從所有四種模式收集的圖像掃描來處理腦腫瘤分割的工作。然而,在實(shí)踐中,我們面臨著同時(shí)收集所有模式的挑戰(zhàn),往往會(huì)丟失一種或多種模式。因此,在本文中,我們考慮了在缺失圖像模式的情況下分割腦腫瘤的問題。
當(dāng)前處理缺失模態(tài)的圖像分割方法可分為三類,包括:(1)暴力方法:為每種可能的模態(tài)組合設(shè)計(jì)單獨(dú)的分割網(wǎng)絡(luò)(2)補(bǔ)全方法:合成缺失的模態(tài)以補(bǔ)全用于傳統(tǒng)圖像分割的全部模態(tài),以及(3)基于融合的方法:將不同模態(tài)的圖像映射到相同的特征空間進(jìn)行融合,然后根據(jù)融合的特征分割腦腫瘤 第一類方法具有良好的分割性能;然而,它們是資源密集型的,并且通常需要更多的培訓(xùn)時(shí)間。第二類方法的性能受到缺失模態(tài)的合成質(zhì)量的限制。第三類通常只有一個(gè)網(wǎng)絡(luò)來處理缺失模態(tài)的不同場景,這是實(shí)踐中最常用的一種。
為了處理各種數(shù)量的模態(tài)輸入,HeMIS通過計(jì)算從不同模態(tài)提取的特征圖作為融合特征的均值和方差,將不同模態(tài)的圖像特征投影到相同的特征空間中。為了提高特征融合的表示,HVED 將每種模態(tài)的輸入視為高斯分布,并通過高斯混合模型融合來自不同模態(tài)的特征圖。另一方面,RobustSeg將模態(tài)特征分解為模態(tài)不變的內(nèi)容代碼和模態(tài)特定的外觀代碼,以實(shí)現(xiàn)更準(zhǔn)確的融合和分割??紤]到不同模態(tài)下觀察到的腦腫瘤區(qū)域的清晰度不同,RFNet引入了一種注意力機(jī)制來自適應(yīng)地建模模態(tài)和腫瘤區(qū)域的關(guān)系?;趫D結(jié)構(gòu)和注意力機(jī)制,MFI被提出來學(xué)習(xí)不同缺失情況下模態(tài)之間的自適應(yīng)互補(bǔ)信息。
由于當(dāng)前模型的復(fù)雜性,我們傾向于開發(fā)一個(gè)簡單的模型,采用簡單的平均融合和注意力機(jī)制。這兩種技術(shù)被證明在處理缺失模態(tài)和多模態(tài)融合方面是有效的。受 MAML的啟發(fā),我們提出了一種名為 A2FSeg(平均和自適應(yīng)融合分割網(wǎng)絡(luò),見圖 1)的模型,該模型有兩個(gè)融合步驟,即平均融合和基于注意力的自適應(yīng)融合,以集成來自不同模態(tài)用于分割的特征。盡管我們的融合想法非常簡單,但 A2FSeg 在 BraTS2020 數(shù)據(jù)集上的不完整多模態(tài)腦腫瘤圖像分割任務(wù)中實(shí)現(xiàn)了最先進(jìn)的 (SOTA) 性能。我們?cè)诒疚闹械呢暙I(xiàn)總結(jié)如下:

  1. 我們提出了一種簡單的多模態(tài)融合網(wǎng)絡(luò) A2FSeg,用于腦腫瘤分割,它是通用的,可以擴(kuò)展到任意數(shù)量的不完整模態(tài)圖像分割。
  2. 我們?cè)?BraTS 2020 數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),實(shí)現(xiàn)了 SOTA 分割性能,整個(gè)腫瘤的平均 Dice 核心為 89.79%,腫瘤核心為 82.72%,增強(qiáng)腫瘤為 66.71%。

方法

論文閱讀筆記——A2FSeg:用于醫(yī)學(xué)圖像分割自適應(yīng)多模態(tài)融合網(wǎng)絡(luò),醫(yī)療 + 多模態(tài)論文閱讀筆記,論文閱讀,筆記
Fig 1:我們提出的自適應(yīng)多模態(tài)融合網(wǎng)絡(luò)(A2FSeg,平均和自適應(yīng)融合分割網(wǎng)絡(luò)的縮寫)的概述。虛線表示缺失某些模態(tài)的可能性。如果是這樣,平均融合模塊和自適應(yīng)融合模塊都會(huì)忽略缺失的。最終的腫瘤掩碼是根據(jù)自適應(yīng)融合后的特征圖來預(yù)測的,如紅色實(shí)線箭頭所示。 (彩色效果最佳)(在線彩色圖)
圖 1 展示了我們的 A2FSeg 的網(wǎng)絡(luò)架構(gòu)。它由四個(gè)用于特定模態(tài)特征提取的子網(wǎng)絡(luò),一個(gè)平均融合模塊:用于在第一階段簡單地融合來自可用模態(tài)的特征,以及一個(gè)基于注意力機(jī)制的自適應(yīng)融合模塊,用于在第二階段再次自適應(yīng)地融合這些特征。

模態(tài)特定特征提取模塊

在融合之前,我們首先使用 nnUNet 模型為每種單一模態(tài)提取特征,如圖 1 所示。特別的,MSFE模型從特定模態(tài) m m m(即 I m ∈ R H × W × D \mathbf{I}_{m}\in\mathbb{R}^{H\times W\times D} Im?RH×W×D m ∈ { T 1 , ?T 2 , T 1 c,?Flair } m\in\{\text{T}1,\text{ T}2,\text{T}1\text{c, Flair}\} m{T1,?T2,T1c,?Flair})進(jìn)行3D圖像掃描,并輸出相應(yīng)的圖像特征 F m ∈ R C × H f × W f × D f \mathbf{F}_{m}\in\mathbb{R}^{C\times H_{f}\times W_{f}\times D_{f}} Fm?RC×Hf?×Wf?×Df?,這里,通道數(shù)C=32; Hf 、Wf 和Df 是特征圖Fm 的高度、寬度和深度,它們與輸入圖像具有相同的尺寸。對(duì)于每種單一模態(tài),每個(gè) MSFE 模塊都受到圖像分割掩模的監(jiān)督,以加快其收斂速度,并為以后的融合提供良好的特征提取。所有四個(gè) MSFE 都具有相同的架構(gòu),但權(quán)重不同。

平均融合模塊

為了聚合來自不同模態(tài)的圖像特征并處理丟失一個(gè)或多個(gè)模態(tài)的可能性,我們使用來自不同模態(tài)的可用特征的平均值作為第一個(gè)融合結(jié)果。即,我們得到一個(gè)融合平均特征 F ˉ = 1 N m ∑ m = 1 N m F m \bar{\mathbf{F}}=\frac1{N_m}\sum_{m=1}^{N_m}\mathbf{F}_m Fˉ=Nm?1?m=1Nm??Fm?,這里 N m {N_m} Nm?是可用模態(tài)的數(shù)目,例如,如圖1所示,如果一次迭代中只有前兩種模態(tài)可用,則 N m = 2 {N_m} = 2 Nm?=2,我們將取這兩種模態(tài)的平均值,忽略那些缺失的模態(tài)。

自適應(yīng)融合模塊

由于每種模態(tài)對(duì)最終腫瘤分割的貢獻(xiàn)不同,與 MAML類似,我們采用注意力機(jī)制來衡量每種模態(tài)對(duì)最終分割的體素水平貢獻(xiàn)。如圖 1 所示,為了生成特定模態(tài) m m m的注意力圖,我們將 MSFE 模塊 F m F_m Fm? 提取的特征與平均融合后的平均特征 F ˉ \bar{F} Fˉ 串聯(lián)起來,并通過卷積層生成初始注意力權(quán)重: W m = σ ( F m ( [ F ˉ ; F m ] ; θ m ) ) , m ∈ { T 1 , ? T 1 c , ? T 2 , ? F l a i r } . ( 1 ) \mathbf{W}_{m}=\sigma\left(\mathcal{F}_{m}\left(\left[\bar{\mathbf{F}};\mathbf{F}_{m}\right];\theta_{m}\right)\right),\quad m\in\{\mathrm{T}1,\mathrm{~T}1\mathrm{c},\mathrm{~T}2,\mathrm{~Flair}\}.\quad(1) Wm?=σ(Fm?([Fˉ;Fm?];θm?)),m{T1,?T1c,?T2,?Flair}.(1)這里, F m \mathcal{F}_{m} Fm?是該特定模態(tài) m m m的卷積層, θ m θ_m θm?表示該層的參數(shù), σ σ σ是Sigmoid函數(shù)。也就是說,我們?yōu)槊糠N模態(tài)都有一個(gè)單獨(dú)的卷積層 F m \mathcal{F}_{m} Fm? 來生成不同的權(quán)重。由于可能缺少模態(tài),我們將有不同數(shù)量的特征圖進(jìn)行融合。為了解決這個(gè)問題,我們使用 Softmax 函數(shù)對(duì)不同的注意力權(quán)重進(jìn)行標(biāo)準(zhǔn)化: W ^ m = exp ? ( W m ) ∑ m N m exp ? ( W m ) . ( 2 ) \hat{\mathbf{W}}_m=\frac{\exp\left(\mathbf{W}_m\right)}{\sum_m^{N_m}\exp\left(\mathbf{W}_m\right)}.\quad(2) W^m?=mNm??exp(Wm?)exp(Wm?)?.(2)也就是說,我們只考慮這些可用模態(tài)的特征圖,但將它們對(duì)最終融合結(jié)果的貢獻(xiàn)標(biāo)準(zhǔn)化,這樣,無論缺少多少模態(tài),融合后的特征圖都具有一致的值范圍。然后,我們將注意力權(quán)重與相應(yīng)的模態(tài)特征圖進(jìn)行體素相乘。因此,自適應(yīng)融合的特征圖 F ^ \hat{F} F^ 是通過每個(gè)模態(tài)特征的加權(quán)和來計(jì)算的: F ^ = ∑ m W ^ m ? F m . ( 3 ) \hat{\mathbf{F}}=\sum_m\hat{\mathbf{W}}_m\otimes\mathbf{F}_m.\quad(3) F^=m?W^m??Fm?.(3)這里,?表示體素相乘。

損失函數(shù)

我們有多個(gè)分割頭,分布在A2FSeg的每個(gè)模塊中。對(duì)于每個(gè)分割頭,我們使用交叉熵和軟Dice分?jǐn)?shù)的組合作為基本損失函數(shù),其定義為 L ( y ^ , y ) = L C E ( y ^ , y ) + L D i c e ( y ^ , y ) , ( 4 ) \mathcal{L}(\hat{y},y)=\mathcal{L}_{CE}(\hat{y},y)+\mathcal{L}_{Dice}(\hat{y},y),\quad(4) L(y^?,y)=LCE?(y^?,y)+LDice?(y^?,y),(4)其中 y ^ \hat{y} y^? y y y 分別表示分割預(yù)測和真實(shí)分割結(jié)果?;谶@個(gè)基本函數(shù),我們將整體損失函數(shù)定義為 L t o t a l = ∑ m L m ( y ^ m , y ) + L a v g ( y ^ a v g , y ) + L a d p ( y ^ a d p , y ) , ( 5 ) \mathcal{L}_{total}=\sum_m\mathcal{L}_m(\hat{y}_m,y)+\mathcal{L}_{avg}(\hat{y}_{avg},y)+\mathcal{L}_{adp}(\hat{y}_{adp},y),\quad(5) Ltotal?=m?Lm?(y^?m?,y)+Lavg?(y^?avg?,y)+Ladp?(y^?adp?,y),(5)其中第一項(xiàng)是特征提取后每個(gè)模態(tài) m m m 的基本分割損失;第二項(xiàng)是平均融合模塊的分割輸出的損失;最后一項(xiàng)是自適應(yīng)融合模塊最終輸出的分割損失。

實(shí)驗(yàn)

數(shù)據(jù)集:BraTS 2020
實(shí)驗(yàn)設(shè)置和實(shí)施細(xì)節(jié):
Pytorch實(shí)現(xiàn)、使用RTX3090GPU進(jìn)行實(shí)驗(yàn)、使用Adam優(yōu)化器、learning rate = 0.01、使用學(xué)習(xí)率指數(shù)衰減方法: ( 1 ? # epoch # m a x e p o c h ) 0.9 (1-\frac{\#\text{epoch}}{ \# \mathrm{max}\quad\mathrm{epoch}})^{0.9} (1?#maxepoch#epoch?)0.9、patch = 128 x 128 x 128、訓(xùn)練300輪
論文閱讀筆記——A2FSeg:用于醫(yī)學(xué)圖像分割自適應(yīng)多模態(tài)融合網(wǎng)絡(luò),醫(yī)療 + 多模態(tài)論文閱讀筆記,論文閱讀,筆記
Table 1:與最近的方法進(jìn)行比較(包括HeMIS、U-HVED、mmFormer、MFI),與我們的模型在BraTS 2020上就Dice%方面進(jìn)行比較,缺失模態(tài)用o表示,可用模態(tài)用●表示,F(xiàn)表示Flair,HVED表示U-HVED,mmFormer表示為Former文章來源地址http://www.zghlxwxcb.cn/news/detail-839132.html

到了這里,關(guān)于論文閱讀筆記——A2FSeg:用于醫(yī)學(xué)圖像分割自適應(yīng)多模態(tài)融合網(wǎng)絡(luò)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【論文閱讀】Swin Transformer Embedding UNet用于遙感圖像語義分割

    【論文閱讀】Swin Transformer Embedding UNet用于遙感圖像語義分割

    Swin Transformer Embedding UNet for Remote Sensing Image Semantic Segmentation 全局上下文信息是遙感圖像語義分割的關(guān)鍵 具有強(qiáng)大全局建模能力的Swin transformer 提出了一種新的RS圖像語義分割框架ST-UNet型網(wǎng)絡(luò)(UNet) 解決方案:將Swin transformer嵌入到經(jīng)典的基于cnn的UNet中 ST-UNet由Swin變壓器和CNN并聯(lián)

    2024年02月08日
    瀏覽(59)
  • 圖像生成論文閱讀:GLIDE算法筆記

    圖像生成論文閱讀:GLIDE算法筆記

    標(biāo)題:GLIDE: Towards Photorealistic Image Generation and Editing with Text-Guided Diffusion Models 會(huì)議:ICML2022 論文地址:https://proceedings.mlr.press/v162/nichol22a.html 官方代碼:https://github.com/openai/glide-text2im 作者單位:OpenAI 擴(kuò)散模型最近已被證明可以生成高質(zhì)量的合成圖像,特別是在與引導(dǎo)技術(shù)結(jié)合

    2024年02月02日
    瀏覽(22)
  • 自監(jiān)督醫(yī)學(xué)圖像Models Genesis: Generic Autodidactic Models for 3D Medical Image Analysis論文精讀筆記

    論文下載地址:Models Genesis: Generic Autodidactic Models for 3D Medical Image Analysis 代碼地址:代碼-Github

    2023年04月09日
    瀏覽(26)
  • EPT-Net:用于3D醫(yī)學(xué)圖像分割的邊緣感知轉(zhuǎn)換器

    EPT-Net:用于3D醫(yī)學(xué)圖像分割的邊緣感知轉(zhuǎn)換器

    IEEE TRANSACTIONS ON MEDICAL IMAGING, VOL. 42, NO. 11, NOVEMBER 2023 卷積運(yùn)算的 內(nèi)在局部性 在建模長程依賴性方面存在局限性。盡管為序列到序列全局預(yù)測而設(shè)計(jì)的Transformer就是為了解決這個(gè)問題而誕生的,但由于 底層細(xì)節(jié)特征 不足,它可能會(huì)導(dǎo)致定位能力有限。此外,低級(jí)特征具有豐富

    2024年02月04日
    瀏覽(32)
  • [CVPR2022] 用于 3D 醫(yī)學(xué)圖像分析的 Swin Transformers 的自監(jiān)督預(yù)訓(xùn)練

    [CVPR2022] 用于 3D 醫(yī)學(xué)圖像分析的 Swin Transformers 的自監(jiān)督預(yù)訓(xùn)練

    Self-Supervised Pre-Training of Swin Transformers for 3D Medical Image Analysis 摘要 Vision Transformer(ViT)在全局和局部表示的自監(jiān)督學(xué)習(xí)方面表現(xiàn)出了出色的性能,這些表示它可以轉(zhuǎn)移到下游任務(wù)的應(yīng)用中。 提出模型:提出一種新的自監(jiān)督學(xué)習(xí)框架Swin UNETR,它具有定制的代理任務(wù),用于醫(yī)學(xué)圖像

    2024年02月15日
    瀏覽(24)
  • 萬字長文解讀圖像超分辨率 Real-ESRGAN 論文筆記+代碼閱讀

    萬字長文解讀圖像超分辨率 Real-ESRGAN 論文筆記+代碼閱讀

    目錄 一、介紹 二、重點(diǎn)創(chuàng)新 1.ESRGAN? 2.Real-ESRGAN 三、生成器結(jié)構(gòu) 1.整體結(jié)構(gòu) 2.RRDB結(jié)構(gòu) 四、判別器結(jié)構(gòu) 五、高階退化模型 六、損失函數(shù) 1.生成模型損失函數(shù) 2.判別模型損失函數(shù) ????????超分辨率(Super-Resolution)指通過硬件或軟件的方法提高原有圖像的分辨率,通過一系列低

    2024年02月14日
    瀏覽(30)
  • U-Net Transformer:用于醫(yī)學(xué)圖像分割的自我和交叉注意力模塊

    U-Net Transformer:用于醫(yī)學(xué)圖像分割的自我和交叉注意力模塊

    對(duì)于復(fù)雜和低對(duì)比度的解剖結(jié)構(gòu),醫(yī)學(xué)圖像分割仍然特別具有挑戰(zhàn)性。本文提出的一種U-Transformer網(wǎng)絡(luò),它將Transformer中的self-attention和Cross attention融合進(jìn)了UNet,這樣克服了UNet無法建模長程關(guān)系和空間依賴的缺點(diǎn),從而提升對(duì)關(guān)鍵上下文的分割。本文集合了兩種注意力機(jī)制:自

    2024年02月06日
    瀏覽(14)
  • 【圖像修復(fù)】論文閱讀筆記 ----- 《Image inpainting based on deep learning: A review》

    【圖像修復(fù)】論文閱讀筆記 ----- 《Image inpainting based on deep learning: A review》

    原文下載鏈接1:https://www.sciencedirect.com/science/article/abs/pii/S0141938221000391 原文下載鏈接2:http://s.dic.cool/S/KSS4D4LC 本篇論文綜述發(fā)表于2021年。文章總結(jié)了基于深度學(xué)習(xí)的不同類型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的修復(fù)方法,然后分析和研究了重要的技術(shù)改進(jìn)機(jī)制;從模型網(wǎng)絡(luò)結(jié)構(gòu)和恢復(fù)方法等方

    2024年02月01日
    瀏覽(22)
  • 【YOLOv8改進(jìn)】MCA:用于圖像識(shí)別的深度卷積神經(jīng)網(wǎng)絡(luò)中的多維協(xié)作注意力 (論文筆記+引入代碼)

    【YOLOv8改進(jìn)】MCA:用于圖像識(shí)別的深度卷積神經(jīng)網(wǎng)絡(luò)中的多維協(xié)作注意力 (論文筆記+引入代碼)

    先前的大量研究表明,注意力機(jī)制在提高深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)的性能方面具有巨大潛力。然而,大多數(shù)現(xiàn)有方法要么忽略通道和空間維度的建模注意力,要么引入更高的模型復(fù)雜性和更重的計(jì)算負(fù)擔(dān)。為了緩解這種困境,在本文中,我們提出了一種輕量級(jí)且高效的多維協(xié)

    2024年03月18日
    瀏覽(78)
  • CVPR 2023 醫(yī)學(xué)圖像分割論文大盤點(diǎn)

    CVPR 2023 醫(yī)學(xué)圖像分割論文大盤點(diǎn)

    點(diǎn)擊下方 卡片 ,關(guān)注“ CVer ”公眾號(hào) AI/CV重磅干貨,第一時(shí)間送達(dá) 點(diǎn)擊進(jìn)入— 【醫(yī)學(xué)圖像分割】微信交流群 被催了很久,CVer 正式開啟 CVPR 2023 論文大盤點(diǎn)系列 ! Amusi?一共搜集了13篇醫(yī)學(xué)圖像分割論文 ,這應(yīng)該是目前各平臺(tái)上 最新最全面的CVPR 2023?醫(yī)學(xué)圖像分割盤點(diǎn)資料

    2024年02月14日
    瀏覽(46)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包