Consistency-guided Meta-Learning for Bootstrapping Semi-Supervised Medical Image Segmentation
摘要
醫(yī)學(xué)成像取得了顯著的進(jìn)步,但通常需要大量高質(zhì)量的注釋數(shù)據(jù),這些數(shù)據(jù)耗時(shí)且成本高昂。為了減輕這種負(fù)擔(dān),半監(jiān)督學(xué)習(xí)作為一種潛在的解決方案引起了人們的關(guān)注。在本文中,我們提出了一種用于自引導(dǎo)醫(yī)學(xué)圖像分割(MLB-Seg)的元學(xué)習(xí)方法,這是一種解決半監(jiān)督醫(yī)學(xué)圖像分割挑戰(zhàn)的新方法。
- 首先涉及在一小組干凈標(biāo)記的圖像上訓(xùn)練分割模型,以生成未標(biāo)記數(shù)據(jù)的初始標(biāo)簽。
- 為了進(jìn)一步優(yōu)化這個(gè)自舉過程,我們引入了一個(gè)逐像素權(quán)重映射系統(tǒng),該系統(tǒng)可以動態(tài)地為初始化的標(biāo)簽和模型自己的預(yù)測分配權(quán)重。這些權(quán)重是使用元過程確定的,該過程優(yōu)先考慮損失梯度方向更接近干凈數(shù)據(jù)的像素,這是基于一小組精確注釋的圖像。
- 為了促進(jìn)元學(xué)習(xí)過程,我們還引入了一種基于一致性的偽標(biāo)簽增強(qiáng)(PLE)方案,該方案通過集成來自相同輸入的各種增強(qiáng)版本的預(yù)測來提高模型自身預(yù)測的質(zhì)量。
- 為了提高通過對單個(gè)輸入的多次增強(qiáng)得到的權(quán)重圖的質(zhì)量,我們在PLE方案中引入了一個(gè)平均教師。該方法有助于降低權(quán)重圖中的噪聲,穩(wěn)定權(quán)重圖的生成過程。
代碼地址
本文方法
文章來源:http://www.zghlxwxcb.cn/news/detail-606177.html
- 首先使用基線模型估計(jì)所有未標(biāo)記數(shù)據(jù)的標(biāo)簽,該模型是在干凈數(shù)據(jù)上訓(xùn)練的
- 利用學(xué)習(xí)者自己的預(yù)測(即偽標(biāo)簽),從干凈集學(xué)習(xí)并自我引導(dǎo)
目標(biāo)為:
交叉熵?fù)p失
要達(dá)到這個(gè)目標(biāo):
步驟1:基于Sn和當(dāng)前權(quán)重映射集更新θt+1。接下來,在訓(xùn)練步驟t中,我們計(jì)算θt+1以接近最優(yōu)θ?(wn, wp)如下:
步驟2:在干凈的訓(xùn)練數(shù)據(jù)上,通過最小化元目標(biāo)函數(shù)中的標(biāo)準(zhǔn)交叉熵?fù)p失,生成基于Sc和θt+1的元學(xué)習(xí)權(quán)映射wn?,wp?:
這里我們將wn /p中的每個(gè)元素都限制為非負(fù),以防止?jié)撛诘牟环€(wěn)定訓(xùn)練。這樣的元學(xué)習(xí)過程產(chǎn)生的權(quán)重圖可以更好地平衡初始化和偽標(biāo)簽的貢獻(xiàn),從而減少錯(cuò)誤像素帶來的負(fù)面影響。為了減少計(jì)算開銷,我們只在一個(gè)小的干凈標(biāo)簽數(shù)據(jù)集S c上應(yīng)用wn/pj的一步梯度下降。
步驟3:使用元學(xué)習(xí)的權(quán)重映射在空間上調(diào)制逐像素的損失以更新θt+1
為了生成更可靠的偽標(biāo)簽,我們提出了基于一致性的偽標(biāo)簽增強(qiáng)(PLE)方案,該方案在相同輸入的增強(qiáng)版本之間強(qiáng)制一致性。
單獨(dú)使用PLE可能會導(dǎo)致性能下降,因?yàn)闄?quán)重圖中的噪聲會增加。這種不穩(wěn)定性會在隨后的訓(xùn)練迭代中加劇。為了在元學(xué)習(xí)過程中解決這一問題,我們建議使用具有一致性損失的平均教師模型
實(shí)驗(yàn)結(jié)果
文章來源地址http://www.zghlxwxcb.cn/news/detail-606177.html
到了這里,關(guān)于基于一致性引導(dǎo)的元學(xué)習(xí)bootstraping半監(jiān)督醫(yī)學(xué)圖像分割的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!