The Fully Convolutional Transformer for Medical Image Segmentation
摘要
我們提出了一種新的Transformer ,能夠分割不同模式的醫(yī)學(xué)圖像。醫(yī)學(xué)圖像分析的細(xì)粒度特性所帶來(lái)的挑戰(zhàn)意味著Transformer 對(duì)其分析的適應(yīng)仍處于初級(jí)階段。UNet的巨大成功在于它能夠理解分割任務(wù)的細(xì)粒度性質(zhì),這是現(xiàn)有的基于變壓器的模型目前所不具備的能力。為了解決這個(gè)缺點(diǎn),我們提出了全卷積Transformer (FCT),它建立在卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)有效圖像表示的成熟能力之上,并將它們與Transformer 有效捕獲其輸入中的長(zhǎng)期依賴關(guān)系的能力相結(jié)合。
FCT是醫(yī)學(xué)影像文獻(xiàn)中第一個(gè)完全卷積的Transformer模型。它分兩個(gè)階段處理輸入,首先,它學(xué)習(xí)從輸入圖像中提取長(zhǎng)期語(yǔ)義依賴關(guān)系,然后學(xué)習(xí)從特征中捕獲分層全局屬性。FCT結(jié)構(gòu)緊湊、準(zhǔn)確、堅(jiān)固。我們的研究結(jié)果表明,在不需要任何預(yù)訓(xùn)練的情況下,它在不同數(shù)據(jù)模式的多個(gè)醫(yī)學(xué)圖像分割數(shù)據(jù)集上大大優(yōu)于所有現(xiàn)有的變壓器架構(gòu)。FCT在ACDC數(shù)據(jù)集上比其直接競(jìng)爭(zhēng)對(duì)手高出1.3%,在Synapse數(shù)據(jù)集上高出4.4%,在脾臟數(shù)據(jù)集上高出1.2%,在ISIC 2017數(shù)據(jù)集上高出1.1%,參數(shù)減少了五倍
代碼地址
本文方法
網(wǎng)絡(luò)(底部)遵循標(biāo)準(zhǔn)的UNet形狀,明顯的區(qū)別是它純粹是基于卷積-變壓器的。FCT層的第一個(gè)組成部分(頂部)是卷積注意。在這里,投影層中的深度卷積消除了對(duì)位置編碼的需要,導(dǎo)致了一個(gè)更簡(jiǎn)單的模型。我們創(chuàng)建重疊的patch,其中patch重疊的程度是通過(guò)卷積投影層的步幅來(lái)控制的。為了利用圖像中的空間背景,我們的MHSA塊用深度卷積取代了線性投影。
wide-focus應(yīng)用擴(kuò)展卷積在線性增加的接受野對(duì)MHSA輸出
看代碼會(huì)更清晰文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-526113.html
實(shí)驗(yàn)結(jié)果
文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-526113.html
到了這里,關(guān)于醫(yī)學(xué)圖像分割的全卷積transformer的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!