国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network

這篇具有很好參考價(jià)值的文章主要介紹了圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

@article{zhang2020ifcnn,
title={IFCNN: A general image fusion framework based on convolutional neural network},
author={Zhang, Yu and Liu, Yu and Sun, Peng and Yan, Han and Zhao, Xiaolin and Zhang, Li},
journal={Information Fusion},
volume={54},
pages={99–118},
year={2020},
publisher={Elsevier}
}

論文級(jí)別:SCI A1
影響因子:18.6
??

??論文解讀

該論文是【基于CNN】的圖像融合方法。網(wǎng)絡(luò)模型是【端到端】,適用于【多類型圖像融合任務(wù)】,從【多聚焦圖像融合】展開。
此外,作者還發(fā)布了新的數(shù)據(jù)集。

??關(guān)鍵詞

  • General image fusion framework 通用圖像融合框架
  • Convolutional neural network 卷積神經(jīng)網(wǎng)絡(luò)
  • Large-scale multi-focus image dataset 大規(guī)模多聚焦圖像數(shù)據(jù)集
  • Better generalization ability 更好的泛化性能

??核心思想

IFCNN是一個(gè)【全卷積】的【端到端】【通用】圖像融合模型,模型包括:特征提取、特征融合、特征重構(gòu)三部分。

  • 輸入(【多組】【3通道】圖像)
    • RGB->YCbCr,疊加Y通道3次作為輸入
    • 單通道圖像,直接疊加3次變成3通道
  • 特征提取
    使用在ImageNet上預(yù)訓(xùn)練的ResNet101的第一個(gè)卷積層作為特征提取的第一個(gè)卷積層,但是因?yàn)樵摼矸e層是用于分類任務(wù)的,因此添加了第二個(gè)卷積層以適應(yīng)圖像融合任務(wù)。
  • 特征融合
    并沒有采用concat后再卷積融合的操作,而是使用元素融合規(guī)則(元素【最大】、【最小】、【平均】)。前者要求特征輸入模塊參數(shù)個(gè)數(shù)隨輸入改變,而元素融合規(guī)則不需要,可以融合任意數(shù)量的輸入圖像。本文使用:
    • 可見光-紅外、多聚焦、多模態(tài)醫(yī)學(xué):【元素最大】
    • 多曝光:【元素平均】
  • 特征重構(gòu)
    因?yàn)樘卣魈崛〗Y(jié)構(gòu)簡單,特征抽象級(jí)別不高,所以重構(gòu)也簡單的使用了兩層卷積
  • 輸出
    引入了【感知損失】對模型進(jìn)行正則化,

參考鏈接
[什么是圖像融合?(一看就通,通俗易懂)]

??網(wǎng)絡(luò)結(jié)構(gòu)

作者提出的網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示。結(jié)構(gòu)很清晰明了。
圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能
CONV1包含64個(gè)7×7的卷積核,步長為1,padding為3。(不需要再訓(xùn)練,直接使用固化的參數(shù))
CONV2包含64個(gè)3×3的卷積核,步長為1,padding為1。
在FUSE中,采用了相應(yīng)任務(wù)的元素融合規(guī)則,公式如下:
圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能
f i , c 2 j f^j_{i,c_2} fi,c2?j?代表了CONV2中,從第i張圖像提取的第j個(gè)特征圖。 f j ^ \hat {f^j} fj^?代表了融合特征圖的第j個(gè)通道。 f u s e fuse fuse表示元素融合規(guī)則。
因?yàn)橄虏蓸訒?huì)丟失信息,因此該網(wǎng)絡(luò)沒有進(jìn)行任何下采樣。整個(gè)網(wǎng)絡(luò)中特征圖和輸入圖像尺寸均一致。
CONV3包含64個(gè)3×3的卷積核,步長為1,padding為1。
CONV3包含3個(gè)1×1的卷積核,目的是為了將64通道的特征圖壓縮至3通道。
在輸入的地方,RGB2YCbCr的公式為:
圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能

??損失函數(shù)

感知損失由ResNet101最后一個(gè)卷積層提取的預(yù)測融合圖像特征圖與標(biāo)簽融合圖像的均方誤差構(gòu)成:
圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能
f p f_p fp? f g f_g fg?分別代表預(yù)測融合圖像的特征圖以及融合圖像ground truth的特征圖,i為特征圖的通道索引, C f C_f Cf? H f H_f Hf?、 W f W_f Wf?分別代表特征圖的通道數(shù)、高、寬。

圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能
I p I_p Ip? I g I_g Ig?分別代表預(yù)測融合圖像以及融合圖像的ground truth,i為RGB圖像通道索引。 H g H_g Hg?、 W g W_g Wg?分別為融合圖像ground truth的高和寬。
總損失如下:
圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能
ω 1 \omega_1 ω1? ω 2 \omega_2 ω2?為權(quán)重系數(shù),本文設(shè)置均為1.

??數(shù)據(jù)集

圖像融合數(shù)據(jù)集鏈接
[圖像融合常用數(shù)據(jù)集整理]

??訓(xùn)練設(shè)置

  • 在多聚焦圖像數(shù)據(jù)集上,只用 B l o s s B_loss Bl?oss預(yù)訓(xùn)練5000次,batchsize64
  • 凍結(jié)BN層參數(shù),采用 T l o s s T_loss Tl?oss進(jìn)行60000個(gè)epoch精細(xì)訓(xùn)練,batchsize32(此步驟計(jì)算量較大,所以降低)

??實(shí)驗(yàn)

??評(píng)價(jià)指標(biāo)

  • VIFF
  • ISSIM
  • NMI
  • SF
  • AG

參考資料
[圖像融合定量指標(biāo)分析]

??Baseline

  • GFF,LPSR,MFCNN,MECNN

參考資料
[圖像融合論文baseline及其網(wǎng)絡(luò)模型]

??實(shí)驗(yàn)結(jié)果

圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能
圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能
圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能
圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能
圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能
圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能
圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能
圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能
圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network,圖像融合,論文閱讀,深度學(xué)習(xí),圖像處理,人工智能

更多實(shí)驗(yàn)結(jié)果及分析可以查看原文:
??[論文下載地址]
??[代碼下載地址]


??傳送門

??圖像融合相關(guān)論文閱讀筆記

??[(PMGI) Rethinking the image fusion: A fast unified image fusion network based on proportional maintenance of gradient and intensity]
??[SDNet: A Versatile Squeeze-and-Decomposition Network for Real-Time Image Fusion]
??[DDcGAN: A Dual-Discriminator Conditional Generative Adversarial Network for Multi-Resolution Image Fusion]
??[FusionGAN: A generative adversarial network for infrared and visible image fusion]
??[PIAFusion: A progressive infrared and visible image fusion network based on illumination aw]
??[Visible and Infrared Image Fusion Using Deep Learning]
??[CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for Multi-Modality Image Fusion]
??[U2Fusion: A Unified Unsupervised Image Fusion Network]

??圖像融合論文baseline總結(jié)

??[圖像融合論文baseline及其網(wǎng)絡(luò)模型]

??其他論文

[3D目標(biāo)檢測綜述:Multi-Modal 3D Object Detection in Autonomous Driving:A Survey]

??其他總結(jié)

??[CVPR2023、ICCV2023論文題目匯總及詞頻統(tǒng)計(jì)]

?精品文章總結(jié)

?[圖像融合論文及代碼整理最全大合集]
?[圖像融合常用數(shù)據(jù)集整理]

如有疑問可聯(lián)系:420269520@qq.com;
碼字不易,【關(guān)注,收藏,點(diǎn)贊】一鍵三連是我持續(xù)更新的動(dòng)力,祝各位早發(fā)paper,順利畢業(yè)~文章來源地址http://www.zghlxwxcb.cn/news/detail-772600.html

到了這里,關(guān)于圖像融合論文閱讀:IFCNN: A general image fusion framework based on convolutional neural network的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對比學(xué)習(xí)

    圖像融合論文閱讀:CS2Fusion: 通過估計(jì)特征補(bǔ)償圖譜實(shí)現(xiàn)自監(jiān)督紅外和可見光圖像融合的對比學(xué)習(xí)

    @article{wang2024cs2fusion, title={CS2Fusion: Contrastive learning for Self-Supervised infrared and visible image fusion by estimating feature compensation map}, author={Wang, Xue and Guan, Zheng and Qian, Wenhua and Cao, Jinde and Liang, Shu and Yan, Jin}, journal={Information Fusion}, volume={102}, pages={102039}, year={2024}, publisher={Elsevier} } 論文級(jí)

    2024年01月22日
    瀏覽(35)
  • 【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀

    【論文閱讀】Weighted Boxes Fusion(WBF)模型融合原理解讀

    論文地址:https://arxiv.org/pdf/1910.13302.pdf 代碼地址:GitHub - ZFTurbo/Weighted-Boxes-Fusion: Set of methods to ensemble boxes from different object detection models, including implementation of \\\"Weighted boxes fusion (WBF)\\\" method. 【 原理 】 (1)將所有獲得的候選框按得分進(jìn)行降序排列; (2)選取得分最高的候選框

    2024年02月10日
    瀏覽(27)
  • 【讀論文】SwinFusion: Cross-domain Long-range Learning for General Image Fusion via Swin Transformer

    【讀論文】SwinFusion: Cross-domain Long-range Learning for General Image Fusion via Swin Transformer

    論文:https://ieeexplore.ieee.org/document/9812535 如有侵權(quán)請聯(lián)系博主 Swin Transformer 長期依賴性、全局信息 跨域融合 2022年發(fā)表在 IEEE/CAA JOURNAL OF AUTOMA TICA SINICA的一篇文章,該篇論文的作者仍然是我們熟悉的FusionGAN的作者。 簡單來說,該篇論文提出了一個(gè)基于CNN和Swin Transformer來提取

    2024年02月16日
    瀏覽(30)
  • 【論文閱讀】PSDF Fusion:用于動(dòng)態(tài) 3D 數(shù)據(jù)融合和場景重建的概率符號(hào)距離函數(shù)

    【論文閱讀】PSDF Fusion:用于動(dòng)態(tài) 3D 數(shù)據(jù)融合和場景重建的概率符號(hào)距離函數(shù)

    PSDF Fusion: Probabilistic Signed Distance Function for On-the-fly 3D Data Fusion and Scene Reconstruction We propose a novel 3D spatial representation for data fusion and scene reconstruction. Probabilistic Signed Distance Function (Probabilistic SDF, PSDF) is proposed to depict uncertainties in the 3D space. It is modeled by a joint distribution describing

    2024年02月03日
    瀏覽(89)
  • 【論文閱讀】以及部署B(yǎng)EVFusion: A Simple and Robust LiDAR-Camera Fusion Framework

    【論文閱讀】以及部署B(yǎng)EVFusion: A Simple and Robust LiDAR-Camera Fusion Framework

    BEVFusion: A Simple and Robust LiDAR-Camera Fusion Framework BEVFusion:一個(gè)簡單而強(qiáng)大的LiDAR-相機(jī)融合框架 NeurIPS 2022 多模態(tài)傳感器融合意味著信息互補(bǔ)、穩(wěn)定,是自動(dòng)駕駛感知的重要一環(huán),本文注重工業(yè)落地,實(shí)際應(yīng)用 融合方案: 前融合(數(shù)據(jù)級(jí)融合)指通過空間對齊直接融合不同模態(tài)的

    2024年02月04日
    瀏覽(51)
  • 【論文閱讀】Uformer:A General U-Shaped Transformer for Image Restoration

    ??博客主頁:??睡晚不猿序程?? ?首發(fā)時(shí)間:2023.6.8 ?最近更新時(shí)間:2023.6.8 ??本文由 睡晚不猿序程 原創(chuàng) ??作者是蒻蒟本蒟,如果文章里有任何錯(cuò)誤或者表述不清,請 tt 我,萬分感謝!orz 目錄 ??前言 1. 內(nèi)容簡介 2. 論文瀏覽 3. 圖片、表格瀏覽 4. 引言瀏覽 5. 方法 5.

    2024年02月08日
    瀏覽(27)
  • 【論文閱讀】SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness

    【論文閱讀】SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness

    論文鏈接:SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness | IEEE Journals Magazine | IEEE Xplore 代碼:?GitHub - Linfeng-Tang/SuperFusion: This is official Pytorch implementation of \\\"SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness\\\" 圖像融合的重要性:由于攝影環(huán)境

    2024年03月19日
    瀏覽(22)
  • 論文閱讀:FusionGAN: A generative adversarial network for infrared and visible image fusion

    論文閱讀:FusionGAN: A generative adversarial network for infrared and visible image fusion

    @article{ma2019fusiongan, title={FusionGAN: A generative adversarial network for infrared and visible image fusion}, author={Ma, Jiayi and Yu, Wei and Liang, Pengwei and Li, Chang and Jiang, Junjun}, journal={Information fusion}, volume={48}, pages={11–26}, year={2019}, publisher={Elsevier} } [論文下載地址] Image fusion, infrared image, visible image

    2024年01月22日
    瀏覽(23)
  • 論文閱讀:LIF-Seg: LiDAR and Camera Image Fusion for 3DLiDAR Semantic Segmentation

    論文閱讀:LIF-Seg: LiDAR and Camera Image Fusion for 3DLiDAR Semantic Segmentation

    LIF-Seg:用于 3D LiDAR 語義分割的 LiDAR 和相機(jī)圖像融合 來源:華科 + 商湯 未發(fā)表2021 鏈接:https://arxiv.org/abs/2108.07511 個(gè)人覺得有用的和自己理解加粗和()內(nèi)表示,盡量翻譯的比較全,有一些官方話就沒有翻譯了,一些疑惑的地方歡迎大家探討。如果對整個(gè)領(lǐng)域比較熟悉看一、

    2023年04月25日
    瀏覽(17)
  • 深度學(xué)習(xí)中的圖像融合:圖像融合論文閱讀與實(shí)戰(zhàn)

    深度學(xué)習(xí)中的圖像融合:圖像融合論文閱讀與實(shí)戰(zhàn)

    個(gè)人博客 :Sekyoro的博客小屋 個(gè)人網(wǎng)站 :Proanimer的個(gè)人網(wǎng)站 介紹圖像融合概念,回顧sota模型,其中包括數(shù)字?jǐn)z像圖像融合,多模態(tài)圖像融合, 接著評(píng)估一些代表方法 介紹一些常見應(yīng)用,比如RGBT目標(biāo)跟蹤,醫(yī)學(xué)圖像檢查,遙感監(jiān)測 動(dòng)機(jī): 由于硬件設(shè)備的理論和技術(shù)限制,單一

    2024年02月02日
    瀏覽(30)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包