国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Low-Light Image Enhancement via Stage-Transformer-Guided Network 論文閱讀筆記

這篇具有很好參考價值的文章主要介紹了Low-Light Image Enhancement via Stage-Transformer-Guided Network 論文閱讀筆記。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Low-Light Image Enhancement via Stage-Transformer-Guided Network 論文閱讀筆記,論文閱讀筆記,transformer,論文閱讀,筆記

  • 這是TCSVT 2023年的一篇暗圖增強的論文

  • 文章的核心思想是,暗圖有多種降質(zhì)因素,單一stage的model難以實現(xiàn)多降質(zhì)因素的去除,因此需要一個multi-stage的model,文章中設置了4個stage。同時提出了用預設query向量來代表不同的降質(zhì)因素,對原圖提取的key 和value進行注意力的方法。

  • 網(wǎng)絡結(jié)構(gòu)如下圖所示:
    Low-Light Image Enhancement via Stage-Transformer-Guided Network 論文閱讀筆記,論文閱讀筆記,transformer,論文閱讀,筆記

  • 首先是預處理模塊,用了孔洞卷積來提取多尺度特征圖

  • 接著multi-stage部分是堆疊重復結(jié)構(gòu)組成,每個結(jié)構(gòu)由雙支路(兩個尺度,下采樣至1/2)殘差結(jié)構(gòu)核HVSA模塊組成。

  • HVSA模塊如下圖所示,他把特征圖1x1卷積后按通道平均分為horizontal和vertical,horizontal按行切分,每行是一個token,vertical按列切分。然后按行/列進行自注意力計算,再原樣拼回去1x1卷積產(chǎn)生HVSA的輸出(作為殘差特征加回 X i X_i Xi?)。但這里的尺度有點奇怪,全文也沒有提到這里有下采樣的操作,一方面每個stage的雙支路是不同分辨率,他是怎么加和到一起的,另一方面不同stage輸出的結(jié)果的shape來看是一直在下采樣的,不知道是不是patch merging操作沒有寫出來,得看代碼。
    Low-Light Image Enhancement via Stage-Transformer-Guided Network 論文閱讀筆記,論文閱讀筆記,transformer,論文閱讀,筆記

  • decoder則用預設的degradation token來作為query進行多頭注意力機制,然后卷積并上采樣成原圖,這里同樣也沒有寫很多細節(jié),比如怎么上采樣的以及多頭注意力對圖片是按pixel來算token還是按patch,按patch又是按多大的patch,統(tǒng)統(tǒng)沒有說。

  • 損失函數(shù)則是三個損失的加權(quán)和,分別是MSE損失,vgg的perceptual損失和計算預測結(jié)果和GT的直方圖來算直方圖之間的L2損失。

  • 在LOL上訓練并比較了LOL上面的結(jié)果:
    Low-Light Image Enhancement via Stage-Transformer-Guided Network 論文閱讀筆記,論文閱讀筆記,transformer,論文閱讀,筆記

  • 這篇工作很多細節(jié)沒有呈現(xiàn),但是用預設的vector作為degradation query的idea還是蠻有意思的,也是第一個個人感覺把transformer和暗圖增強這個任務的特殊性有結(jié)合的方法,其他的地方感覺有很多改進空間,預設vector作為degradation也有很多改進空間,感覺像是個比較除草的工作。文章來源地址http://www.zghlxwxcb.cn/news/detail-577175.html

到了這里,關于Low-Light Image Enhancement via Stage-Transformer-Guided Network 論文閱讀筆記的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • Progressive Dual-Branch Network for Low-Light Image Enhancement 論文閱讀筆記

    Progressive Dual-Branch Network for Low-Light Image Enhancement 論文閱讀筆記

    這是22年中科院2區(qū)期刊的一篇有監(jiān)督暗圖增強的論文 網(wǎng)絡結(jié)構(gòu)如下圖所示: ARM模塊如下圖所示: CAB模塊如下圖所示: LKA模塊其實就是放進去了一些大卷積核: AFB模塊如下圖所示: 這些網(wǎng)絡結(jié)構(gòu)沒什么特別的,連來連去搞那么復雜沒什么意思,最終預測的結(jié)果是兩個支路的

    2024年02月16日
    瀏覽(24)
  • 低照度增強--論文閱讀【《Toward Fast, Flexible, and Robust Low-Light Image Enhancement》】

    低照度增強--論文閱讀【《Toward Fast, Flexible, and Robust Low-Light Image Enhancement》】

    介紹一篇最近看的低照度增強方面的論文——自校準照明,文中所給的方法取得了非常不錯的效果,值得我們?nèi)W習和思考。 論文名稱 :Toward Fast, Flexible, and Robust Low-Light Image Enhancement(實現(xiàn)快速、靈活和穩(wěn)健的低光照圖像增強) 論文信息 :由大連理工大學2022年4月發(fā)表在

    2024年02月06日
    瀏覽(21)
  • 論文閱讀——《Retinexformer: One-stage Retinex-based Transformer for Low-light Image Enhancement》

    論文閱讀——《Retinexformer: One-stage Retinex-based Transformer for Low-light Image Enhancement》

    本文試圖從原理和代碼簡單介紹低照度增強領域中比較新的一篇論文——Retinexformer,其效果不錯,刷新了十三大暗光增強效果榜單。 ? 論文名稱 :Retinexformer: One-stage Retinex-based Transformer for Low-light Image Enhancement ?? 論文信息 :由清華大學聯(lián)合維爾茲堡大學和蘇黎世聯(lián)邦理工

    2024年01月18日
    瀏覽(29)
  • C# OpenCvSharp DNN Low Light image Enhancement

    C# OpenCvSharp DNN Low Light image Enhancement

    目錄 介紹 效果 模型信息 項目 代碼 下載 C# OpenCvSharp DNN Low Light image Enhancement github地址:https://github.com/zhenqifu/PairLIE ?? ?Model Properties ------------------------- --------------------------------------------------------------- Inputs ------------------------- name:input tensor:Float[1, 3, 512, 512] name:exposure

    2024年02月21日
    瀏覽(21)
  • 論文閱讀之《Kindling the Darkness: A Practical Low-light Image Enhancer》

    論文閱讀之《Kindling the Darkness: A Practical Low-light Image Enhancer》

    目錄 摘要 介紹 已有方法回顧 普通方法 基于亮度的方法 基于深度學習的方法 基于圖像去噪的方法 提出的方法 2.1 Layer Decomposition Net 2.2 Reflectance Restoration Net 2.3 Illumination Adjustment Net 實驗結(jié)果 總結(jié) Kindling the Darkness: A Practical Low-light Image Enhancer(KinD) ACM MM 2019 Yonghua Zhang, Jiaw

    2024年02月05日
    瀏覽(28)
  • Kindling the Darkness: A Practical Low-light Image Enhancer論文閱讀筆記

    Kindling the Darkness: A Practical Low-light Image Enhancer論文閱讀筆記

    這是ACMMM2019的一篇有監(jiān)督暗圖增強的論文,KinD 其網(wǎng)絡結(jié)構(gòu)如下圖所示: 首先是一個分解網(wǎng)絡分解出R和L分量,然后有Restoration-Net和Adjustment-Net分別去對R分量和L分量進一步處理,最終將處理好的R分量和L分量融合回去。這倒是很常規(guī)的流程。其中有些novel的細節(jié),一個是分解網(wǎng)

    2024年02月14日
    瀏覽(52)
  • Empowering Low-Light Image Enhancer through Customized Learnable Priors 論文閱讀筆記

    Empowering Low-Light Image Enhancer through Customized Learnable Priors 論文閱讀筆記

    中科大、西安交大、南開大學發(fā)表在ICCV2023的論文,作者里有李重儀老師和中科大的Jie Huang(ECCV2022的FEC CVPR2022的ENC和CVPR2023的ERL的一作)喔,看來可能是和Jie Huang同一個課題組的,而且同樣代碼是開源的,我很喜歡。 文章利用了MAE的encoder來做一些事情,提出了一個叫customi

    2024年02月02日
    瀏覽(25)
  • 論文詳讀:Beyond Brightening Low-light Images (Kind++)

    文章地址:Beyond Brightening Low-light Images (tju.edu.cn) github:GitHub - zhangyhuaee/KinD_plus: Beyond Brightening Low-light Images 目錄 一、簡介 二、方法 網(wǎng)絡整體結(jié)構(gòu): 分解網(wǎng)絡 網(wǎng)絡結(jié)構(gòu) 損失函數(shù): 總損失 反射網(wǎng)絡 網(wǎng)絡結(jié)構(gòu) 損失函數(shù) 反射圖的調(diào)整 光照網(wǎng)絡 網(wǎng)絡結(jié)構(gòu)和損失函數(shù) 與伽馬變化

    2024年02月04日
    瀏覽(18)
  • 【對比度增強】Learning Tone Curves for Local Image Enhancement(LTMNet)

    【對比度增強】Learning Tone Curves for Local Image Enhancement(LTMNet)

    LTMNet這篇文章借鑒了CLAHE算法,所有步驟與CLAHE一致,不同之處在于LTMNet中局部映射曲線是通過CNN預測得到,而CLAHE中是通過直方圖均衡化而得。關于CLAHE,【數(shù)字圖像處理】直方圖均衡化這篇博客有簡單介紹。 論文:Learning Tone Curves for Local Image Enhancement 代碼:https://github.co

    2023年04月23日
    瀏覽(30)
  • 圖像色彩增強相關論文閱讀-Representative Color Transform for Image Enhancement(ICCV2021)

    圖像色彩增強相關論文閱讀-Representative Color Transform for Image Enhancement(ICCV2021)

    作者:Hanul Kim1, Su-Min Choi2, Chang-Su Kim3, Yeong Jun Koh 單位:Seoul National University of Science and Technology 2Chungnam National University 3Korea University 前人方法都是encode-decode方式,丟失細節(jié);密集轉(zhuǎn)化也限制顏色空間的遷移效果; 本文使用顏色遷移表征(RCT)表征顏色變化,根據(jù)輸入和表征顏

    2024年02月11日
    瀏覽(35)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包