點擊下方卡片,關(guān)注“CVer”公眾號
AI/CV重磅干貨,第一時間送達
點擊進入—>【醫(yī)學(xué)圖像分割】微信交流群
被催了很久,CVer 正式開啟 CVPR 2023 論文大盤點系列!Amusi?一共搜集了13篇醫(yī)學(xué)圖像分割論文,這應(yīng)該是目前各平臺上最新最全面的CVPR 2023?醫(yī)學(xué)圖像分割盤點資料。其中半監(jiān)督占據(jù)5篇!截止目前10篇論文的代碼鏈接已放出(不代表已開源)!
如果你想知道最新、高質(zhì)量的 AI 論文、實戰(zhàn)項目、數(shù)據(jù)集還有入門綜述和大量學(xué)習(xí)資料,歡迎加入CVer計算機視覺知識星球!每天不間斷更新,希望對你有所幫助!掃描下方二維碼,即可加入學(xué)習(xí)!
關(guān)于更多CVPR 2023的論文和開源代碼,可見下面鏈接:
https://github.com/amusi/CVPR2023-Papers-with-Code
CVPR 2023?醫(yī)學(xué)圖像分割論文(13篇)
1. 無標記肝臟腫瘤分割
Label-Free Liver Tumor Segmentation
單位:華中科大, 港中大(深圳), JHU, 南京醫(yī)科大學(xué)第一附屬醫(yī)院
Paper: https://arxiv.org/abs/2303.14869
Code: https://github.com/MrGiovanni/SyntheticTumors
一句話總結(jié):本文提出了一種合成肝臟腫瘤的有效策略,代碼已開源!
2. DconnNet:基于定向連通性的醫(yī)學(xué)圖像分割
Directional Connectivity-based Segmentation of Medical Images
單位:杜克大學(xué)
Paper: https://arxiv.org/abs/2304.00145
Code: https://github.com/Zyun-Y/DconnNet
一句話總結(jié):DconnNet:一種用于醫(yī)學(xué)圖像分割的新型定向連通性建模網(wǎng)絡(luò),核心思想是從共享隱空間中分離出定向子空間,并使用提取的定向特征來增強整體數(shù)據(jù)表示,性能表現(xiàn)出色!優(yōu)于nnU-Net等網(wǎng)絡(luò),代碼已開源!
3. BCP:用于半監(jiān)督醫(yī)學(xué)圖像分割的雙向復(fù)制粘貼
Bidirectional Copy-Paste for Semi-Supervised Medical Image Segmentation
單位:華東師范大學(xué), 上海交通大學(xué)
Paper: https://arxiv.org/abs/2305.00673
Code: https://github.com/DeepMed-Lab-ECNU/BCP
一句話總結(jié):本文提出了用于半監(jiān)督醫(yī)學(xué)圖像分割的雙向復(fù)制粘貼(BCP)方法,簡單高效!可顯著提升現(xiàn)有分割模型性能,如助力SS-Net網(wǎng)絡(luò)漲點,代碼已開源!
4. 真實世界醫(yī)學(xué)圖像分割和分布外定位的Mask Transformers?
Devil is in the Queries: Advancing Mask Transformers for Real-world Medical Image Segmentation and Out-of-Distribution Localization
單位:阿里, 北大, 廣東省人民醫(yī)院, 盛京醫(yī)院等
Paper: https://arxiv.org/abs/2304.00212
Code: None
一句話總結(jié):據(jù)稱,這是第一個探索醫(yī)學(xué)圖像分割中的近OOD檢測和定位問題的工作,其中提出MaxQuery網(wǎng)絡(luò)和QD loss,性能表現(xiàn)SOTA!
5. FedCE:基于客戶端貢獻估計的公平聯(lián)邦醫(yī)學(xué)圖像分割
Fair Federated Medical Image Segmentation via Client Contribution Estimation
單位:港中大, NVIDIA
Paper: https://arxiv.org/abs/2303.16520
Code: https://github.com/NVIDIA/NVFlare/tree/dev/research/fed-ce
一句話總結(jié):FedCE:一種新的醫(yī)學(xué)圖像分割聯(lián)邦學(xué)習(xí)方法,其使用客戶端貢獻估計作為全局模型聚合權(quán)重,在兩個真實世界的醫(yī)學(xué)數(shù)據(jù)集上進行實證評估,具有顯著的性能改進、更好的協(xié)作公平性、更好的性能公平性。
6. 基于擴散模型的Ambiguous醫(yī)學(xué)圖像分割
Ambiguous Medical Image Segmentation using Diffusion Models
單位:JHU, 不列顛哥倫比亞大學(xué)
Homepage: https://aimansnigdha.github.io/cimd/
Paper: https://arxiv.org/abs/2304.04745
Code: https://github.com/aimansnigdha/Ambiguous-Medical-Image-Segmentation-using-Diffusion-Models
一句話總結(jié):在三種不同的醫(yī)學(xué)圖像模態(tài)(CT、超聲和MRI)上驗證了有效性,還提出一種新的指標來評估分割預(yù)測的多樣性和準確性,這符合集體見解的臨床實踐,代碼已開源!
7. 正交標注有利于Barely監(jiān)督的醫(yī)學(xué)圖像分割
Orthogonal Annotation Benefits Barely-supervised Medical Image Segmentation
單位:南京大學(xué)(史穎歡團隊), 東南大學(xué), 山東女子學(xué)院
Paper: https://arxiv.org/abs/2303.13090
Code: https://github.com/HengCai-NJU/DeSCO
一句話總結(jié):本文提出一種用于3D醫(yī)學(xué)圖像分割的新注釋方式:正交標注,即為一個volume標記兩個正交切片,大大減輕了標注的負擔(dān),并提出DeSCO:密集稀疏聯(lián)合訓(xùn)練范式,分割性能表現(xiàn)出色!
8. MagicNet:Magic-Cube分區(qū)和恢復(fù)的半監(jiān)督多器官分割
MagicNet: Semi-Supervised Multi-Organ Segmentation via Magic-Cube Partition and Recovery
單位:華東師范大學(xué), 上海交大, 港大
Paper: https://arxiv.org/abs/2301.01767
Code: https://github.com/DeepMed-Lab-ECNU/MagicNet
一句話總結(jié):在兩個公共CT多器官數(shù)據(jù)集上證明了MagicNet的有效性,顯著優(yōu)于最先進的半監(jiān)督醫(yī)學(xué)圖像分割方法,在具有10%標記圖像的MACT數(shù)據(jù)集上DSC改進了+7%
9. MCF:用于半監(jiān)督醫(yī)學(xué)圖像分割的互校正框架
MCF: Mutual Correction Framework for Semi-Supervised Medical Image Segmentation
單位:重慶郵電大學(xué)
Paper: https://openaccess.thecvf.com/content/CVPR2023/html/Wang_MCF_Mutual_Correction_Framework_for_Semi-Supervised_Medical_Image_Segmentation_CVPR_2023_paper.html
Code: https://github.com/WYC-321/MCF
一句話總結(jié):本文探討了模型bias 校正的問題,并提出一種用于半監(jiān)督醫(yī)學(xué)圖像分割的新框架:MCF,性能表現(xiàn)出色!
10. 重新思考小樣本醫(yī)學(xué)分割:一種矢量量化的角度
Rethinking Few-Shot Medical Segmentation: A Vector Quantization View
單位:北京理工大學(xué)
Paper: https://openaccess.thecvf.com/content/CVPR2023/html/Huang_Rethinking_Few-Shot_Medical_Segmentation_A_Vector_Quantization_View_CVPR_2023_paper.html
Code: None
一句話總結(jié):VQ框架在腹部、心臟和前列腺MRI數(shù)據(jù)集上產(chǎn)生了最先進的性能,并預(yù)計這項工作將引發(fā)對當(dāng)前小樣本醫(yī)學(xué)分割模型設(shè)計的重新思考。
11. 用于半監(jiān)督醫(yī)學(xué)圖像分割的偽標簽引導(dǎo)的對比學(xué)習(xí)
Pseudo-label Guided Contrastive Learning for Semi-supervised Medical Image Segmentation
單位:石溪大學(xué)
Paper: https://openaccess.thecvf.com/content/CVPR2023/html/Basak_Pseudo-Label_Guided_Contrastive_Learning_for_Semi-Supervised_Medical_Image_Segmentation_CVPR_2023_paper.html
Code: https://github.com/hritam-98/PatchCL-MedSeg
一句話總結(jié):據(jù)作者稱,這是首次嘗試使用一致性正則化和偽標簽在半監(jiān)督環(huán)境中集成對比學(xué)習(xí),用于半監(jiān)督醫(yī)學(xué)圖像分割,性能表現(xiàn)出色,代碼已開源!
12. SDC-UDA:跨模態(tài)醫(yī)學(xué)圖像分割的Volumetric無監(jiān)督域自適應(yīng)框架
SDC-UDA: Volumetric Unsupervised Domain Adaptation Framework for Slice-Direction Continuous Cross-Modality Medical Image Segmentation
單位:延世大學(xué), Naver AI Lab, 哈佛醫(yī)學(xué)院等
Paper: https://arxiv.org/abs/2305.11012
Code: None
一句話總結(jié):SDC-UDA:一種用于切片方向連續(xù)跨模態(tài)醫(yī)學(xué)圖像分割的新Volumetric 無監(jiān)督域自適應(yīng)框架,并在多個公共數(shù)據(jù)集上驗證了其有效性,實現(xiàn)了最先進的分割性能。
13. DoNet:用于細胞學(xué)實例分割的深度去重疊網(wǎng)絡(luò)
DoNet: Deep De-overlapping Network for Cytology Instance Segmentation
單位:港科大, 騰訊 AI Lab
Paper: https://arxiv.org/abs/2303.14373
Code: https://github.com/DeepDoNet/DoNet
一句話總結(jié):DoNet:一種用于細胞實例分割的基于分解和重組策略中去重疊網(wǎng)絡(luò),在ISBI2014和CPS數(shù)據(jù)集上性能表現(xiàn)SOTA!
如果你想知道最新、高質(zhì)量的 AI 論文、實戰(zhàn)項目、數(shù)據(jù)集還有入門綜述和大量學(xué)習(xí)資料,歡迎加入CVer計算機視覺知識星球!每天不間斷更新,希望對你有所幫助!掃描下方二維碼,即可加入學(xué)習(xí)!
上面13篇醫(yī)學(xué)圖像分割論文和論文下載
CVer后臺回復(fù):CVPR2023,即可下載論文和代碼
醫(yī)學(xué)圖像和圖像分割交流群成立文章來源:http://www.zghlxwxcb.cn/news/detail-628861.html
掃描下方二維碼,或者添加微信:CVer333,即可添加CVer小助手微信,便可申請加入CVer-醫(yī)學(xué)圖像或者圖像分割?微信交流群。另外其他垂直方向已涵蓋:目標檢測、圖像分割、目標跟蹤、人臉檢測&識別、OCR、姿態(tài)估計、超分辨率、SLAM、醫(yī)療影像、Re-ID、GAN、NAS、深度估計、自動駕駛、強化學(xué)習(xí)、車道線檢測、模型剪枝&壓縮、去噪、去霧、去雨、風(fēng)格遷移、遙感圖像、行為識別、視頻理解、圖像融合、圖像檢索、論文投稿&交流、PyTorch、TensorFlow和Transformer等。
一定要備注:研究方向+地點+學(xué)校/公司+昵稱(如醫(yī)學(xué)圖像或者圖像分割+上海+上交+卡卡),根據(jù)格式備注,可更快被通過且邀請進群
▲掃碼或加微信號: CVer333,進交流群
CVer計算機視覺(知識星球)來了!想要了解最新最快最好的CV/DL/AI論文速遞、優(yōu)質(zhì)實戰(zhàn)項目、AI行業(yè)前沿、從入門到精通學(xué)習(xí)教程等資料,歡迎掃描下方二維碼,加入CVer計算機視覺,已匯集數(shù)千人!
▲掃碼進星球
▲點擊上方卡片,關(guān)注CVer公眾號
整理不易,請點贊和在看文章來源地址http://www.zghlxwxcb.cn/news/detail-628861.html
到了這里,關(guān)于CVPR 2023 醫(yī)學(xué)圖像分割論文大盤點的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!