国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí)

這篇具有很好參考價(jià)值的文章主要介紹了圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

@article{wang2024cs2fusion,
title={CS2Fusion: Contrastive learning for Self-Supervised infrared and visible image fusion by estimating feature compensation map},
author={Wang, Xue and Guan, Zheng and Qian, Wenhua and Cao, Jinde and Liang, Shu and Yan, Jin},
journal={Information Fusion},
volume={102},
pages={102039},
year={2024},
publisher={Elsevier}
}


論文級(jí)別:SCI A1
影響因子:18.6

??[論文下載地址]
??[代碼下載地址]



??論文解讀

作者認(rèn)為以往的方法中,缺乏對(duì)源圖像之間同一性和差異性的關(guān)注,無法充分利用其【互補(bǔ)信息】
為了解決這個(gè)問題,作者提出了一種基于【對(duì)比學(xué)習(xí)】的【自監(jiān)督】【端到端】融合模型,該模型將紅外圖像視為可見光圖像的補(bǔ)充。并且提出了補(bǔ)償感知網(wǎng)絡(luò)CPN(Compensation Perception Network)指導(dǎo)backbone network根據(jù)紅外圖像的特征補(bǔ)償圖生成融合圖像。
具體來說,使用【自相關(guān)】和【顯著性運(yùn)算】重構(gòu)正/負(fù)對(duì),從而驅(qū)動(dòng)CPN在對(duì)比損失的約束下,感知紅外圖像相對(duì)于可見光圖像的互補(bǔ)特征。
CPN采用了自監(jiān)督機(jī)制,通過從可見光圖像中隨機(jī)裁剪patch,來模擬視覺沖擊區(qū)域(visually impaired areas),以提供同一場景到多個(gè)正樣本的更多變化信息,從而增強(qiáng)模型的細(xì)粒度感知能力。
此外,作者還在backbone中設(shè)計(jì)了需求驅(qū)動(dòng)模塊DDM(demand-driven module),該模塊在圖像重構(gòu)的時(shí)候,主動(dòng)查詢以此來改善提升層間信息,并且整合更多的空間結(jié)構(gòu)信息。
上文中提到的CPN,是一個(gè)輔助網(wǎng)絡(luò),僅出現(xiàn)在訓(xùn)練過程中,用于驅(qū)動(dòng)backbone以自監(jiān)督的方式完成訓(xùn)練。

??關(guān)鍵詞

Image Fusion 圖像融合
Contrastive Learning 對(duì)比學(xué)習(xí)
Feature Compensation Map 特征補(bǔ)償圖
Identity and Divergence 同一性與差異性

??核心思想

  • 不同模態(tài)的語義信息通常有很大的差異
  • 盡管語義差異很大,但是在相同模態(tài)特征中,自相關(guān)分布和顯著特征趨于相同

因此,將紅外光圖像視作可見光圖像的補(bǔ)充,使用CPN生成紅外圖像特征補(bǔ)償圖,以此指導(dǎo)backbone生成融合圖像。

擴(kuò)展學(xué)習(xí)
[什么是圖像融合?(一看就通,通俗易懂)]

??相關(guān)背景知識(shí)

??對(duì)比學(xué)習(xí)

對(duì)比學(xué)習(xí)通過構(gòu)造正樣本和負(fù)樣本并調(diào)整潛在特征空間中樣本之間的距離來驅(qū)動(dòng)模型學(xué)習(xí)樣本的一般特征。由于其強(qiáng)大的特征表示能力,無需任何注釋或基本事實(shí)即可發(fā)現(xiàn)盡可能多的潛在數(shù)據(jù)信息。
本文利用源圖像之間的同一性和差異性構(gòu)造正負(fù)樣本,以此來增強(qiáng)感知互補(bǔ)特征,從而提升融合性能。

擴(kuò)展學(xué)習(xí)
對(duì)比學(xué)習(xí)(contrastive learning)

??網(wǎng)絡(luò)結(jié)構(gòu)

作者提出的網(wǎng)絡(luò)結(jié)構(gòu)如下所示。

該網(wǎng)絡(luò)結(jié)構(gòu)包括兩部分,backbone和CPN。
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
上圖中,左邊最下面的圖像 A V I S \mathcal AVIS AVIS是從可見光圖像數(shù)據(jù)增強(qiáng)得到的圖像
M i \mathcal M_i Mi?是CPN產(chǎn)生的特征補(bǔ)償圖

??骨干網(wǎng)絡(luò)

該backbone借鑒了SMFuse。
CS2Fusion將紅外光-可見光圖像作為一對(duì)輸入,然后將紅外光-擴(kuò)張可見光圖像作為另一對(duì)輸入。
主干網(wǎng)絡(luò)由四層權(quán)重共享的卷積塊(CB)組成,形成一個(gè)密集編碼器,用于從紅外圖像(??????)和可見圖像(????????)中提取特征。然后將這些提取的特征輸入解碼器(由四層 CB 組成),解碼器在需求驅(qū)動(dòng)模塊(DDM)的指導(dǎo)下生成融合圖像??。此外,紅外圖像和增強(qiáng)可見光圖像 A V I S \mathcal AVIS AVIS都采用相同的方法來構(gòu)造正負(fù)樣本并生成增強(qiáng)補(bǔ)償圖 A M i \mathcal {AM}_i AMi?,使得CPN能夠生成準(zhǔn)確的 M i \mathcal M_i Mi?。

在解碼器中設(shè)計(jì)了DDM來補(bǔ)償信息損失并增強(qiáng)層間的信息流。 DDM是主動(dòng)特征融合組件,以通道注意力學(xué)習(xí)到的需求圖作為查詢依據(jù),通過查詢源特征來實(shí)現(xiàn)特征補(bǔ)充。如下圖
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
輸入是紅外和可見光源圖像特征,以及輸入特征流,輸出是需求圖。上圖畫的很清晰,提取特征,然后相乘后相加,具體的過程可以用公式表述為:
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
CA是通道注意力機(jī)制,AP和MP是最大池化和平均池化。

backbone的損失函數(shù)為:
損失函數(shù)=結(jié)構(gòu)損失 + map損失
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合

??CPN

CPN 的主要作用是在訓(xùn)練過程中利用源特征之間的同一性和散度來感知紅外圖像相對(duì)于可見圖像的互補(bǔ)特征。這種認(rèn)知促使骨干網(wǎng)絡(luò)有效地生成高質(zhì)量的融合圖像。
CPN 將提取的特征作為輸入并執(zhí)行兩個(gè)主要操作。
首先,它通過兩層CB和歸一化操作(Norm)生成補(bǔ)償圖 M i \mathcal M_i Mi?
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
其次,它利用自相關(guān)和顯著性操作(SSO)來生成正樣本和負(fù)樣本,從而約束 M i \mathcal M_i Mi?的生成。

圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合

可見光特征和補(bǔ)償特征可以表示為:
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
CPN的損失函數(shù)為:
L p n \mathcal L_{pn} Lpn?對(duì)比損失用來鼓勵(lì)源圖像的正負(fù)樣本分離
L A p n \mathcal L_{\mathcal Apn} LApn?對(duì)比損失用來鼓勵(lì)擴(kuò)充源圖像的正負(fù)樣本分離
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合

圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合

??損失函數(shù)

上節(jié)已介紹。

??數(shù)據(jù)集

圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合

圖像融合數(shù)據(jù)集鏈接
[圖像融合常用數(shù)據(jù)集整理]

??訓(xùn)練設(shè)置

圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合

??實(shí)驗(yàn)

??評(píng)價(jià)指標(biāo)

  • MI
  • VIF
  • Qabf
  • Qncie
  • Qy
    圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合

擴(kuò)展學(xué)習(xí)
[圖像融合定量指標(biāo)分析]

??Baseline

圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合

???擴(kuò)展學(xué)習(xí)???
強(qiáng)烈推薦必看博客
[圖像融合論文baseline及其網(wǎng)絡(luò)模型]

??實(shí)驗(yàn)結(jié)果

圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合

圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合

圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合
圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí),圖像融合,論文閱讀,圖像處理,人工智能,論文筆記,深度學(xué)習(xí),圖像融合

更多實(shí)驗(yàn)結(jié)果及分析可以查看原文:
??[論文下載地址]


??傳送門

??圖像融合相關(guān)論文閱讀筆記

??[CrossFuse: A novel cross attention mechanism based infrared and visible image fusion approach]
??[(DIF-Net)Unsupervised Deep Image Fusion With Structure Tensor Representations]
??[(MURF: Mutually Reinforcing Multi-Modal Image Registration and Fusion]
??[(A Deep Learning Framework for Infrared and Visible Image Fusion Without Strict Registration]
??[(APWNet)Real-time infrared and visible image fusion network using adaptive pixel weighting strategy]
??[Dif-fusion: Towards high color fidelity in infrared and visible image fusion with diffusion models]
??[Coconet: Coupled contrastive learning network with multi-level feature ensemble for multi-modality image fusion]
??[LRRNet: A Novel Representation Learning Guided Fusion Network for Infrared and Visible Images]
??[(DeFusion)Fusion from decomposition: A self-supervised decomposition approach for image fusion]
??[ReCoNet: Recurrent Correction Network for Fast and Efficient Multi-modality Image Fusion]
??[RFN-Nest: An end-to-end resid- ual fusion network for infrared and visible images]
??[SwinFuse: A Residual Swin Transformer Fusion Network for Infrared and Visible Images]
??[SwinFusion: Cross-domain Long-range Learning for General Image Fusion via Swin Transformer]
??[(MFEIF)Learning a Deep Multi-Scale Feature Ensemble and an Edge-Attention Guidance for Image Fusion]
??[DenseFuse: A fusion approach to infrared and visible images]
??[DeepFuse: A Deep Unsupervised Approach for Exposure Fusion with Extreme Exposure Image Pair]
??[GANMcC: A Generative Adversarial Network With Multiclassification Constraints for IVIF]
??[DIDFuse: Deep Image Decomposition for Infrared and Visible Image Fusion]
??[IFCNN: A general image fusion framework based on convolutional neural network]
??[(PMGI) Rethinking the image fusion: A fast unified image fusion network based on proportional maintenance of gradient and intensity]
??[SDNet: A Versatile Squeeze-and-Decomposition Network for Real-Time Image Fusion]
??[DDcGAN: A Dual-Discriminator Conditional Generative Adversarial Network for Multi-Resolution Image Fusion]
??[FusionGAN: A generative adversarial network for infrared and visible image fusion]
??[PIAFusion: A progressive infrared and visible image fusion network based on illumination aw]
??[CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for Multi-Modality Image Fusion]
??[U2Fusion: A Unified Unsupervised Image Fusion Network]
??綜述[Visible and Infrared Image Fusion Using Deep Learning]

??圖像融合論文baseline總結(jié)

??[圖像融合論文baseline及其網(wǎng)絡(luò)模型]

??其他論文

??[3D目標(biāo)檢測綜述:Multi-Modal 3D Object Detection in Autonomous Driving:A Survey]

??其他總結(jié)

??[CVPR2023、ICCV2023論文題目匯總及詞頻統(tǒng)計(jì)]

?精品文章總結(jié)

?[圖像融合論文及代碼整理最全大合集]
?[圖像融合常用數(shù)據(jù)集整理]

??【如侵權(quán)請(qǐng)私信我刪除】

聯(lián)系方式:420269520@qq.com;
碼字不易,【關(guān)注,收藏,點(diǎn)贊】一鍵三連是我持續(xù)更新的動(dòng)力,祝各位早發(fā)paper,順利畢業(yè)~文章來源地址http://www.zghlxwxcb.cn/news/detail-815098.html

到了這里,關(guān)于圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對(duì)比學(xué)習(xí)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包