国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

[論文閱讀] Explicit Visual Prompting for Low-Level Structure Segmentations

這篇具有很好參考價(jià)值的文章主要介紹了[論文閱讀] Explicit Visual Prompting for Low-Level Structure Segmentations。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

[論文地址] [代碼] [CVPR 23]

Abstract

我們考慮了檢測(cè)圖像中低層次結(jié)構(gòu)的通用問(wèn)題,其中包括分割被操縱的部分,識(shí)別失焦像素,分離陰影區(qū)域,以及檢測(cè)隱藏的物體。每個(gè)問(wèn)題通常都有一個(gè)特定領(lǐng)域的解決方案,我們表明,一個(gè)統(tǒng)一的方法在所有這些問(wèn)題上都表現(xiàn)良好。我們從NLP中廣泛使用的預(yù)訓(xùn)練和提示調(diào)整協(xié)議中得到啟發(fā),并提出了一個(gè)新的視覺(jué)提示模型,即顯式視覺(jué)提示(EVP)。與以往的視覺(jué)提示不同的是,我們的視覺(jué)提示是典型的數(shù)據(jù)集級(jí)別的隱性嵌入,我們的關(guān)鍵見解是強(qiáng)制執(zhí)行可調(diào)整的參數(shù),專注于每個(gè)單獨(dú)圖像的顯性視覺(jué)內(nèi)容,即來(lái)自凍結(jié)補(bǔ)丁嵌入和輸入的高頻成分的特征。在相同數(shù)量的可調(diào)整參數(shù)(每個(gè)任務(wù)5.7%的額外可調(diào)諧參數(shù))下,提議的EVP明顯優(yōu)于其他參數(shù)高效的微調(diào)協(xié)議。與特定任務(wù)的解決方案相比,EVP在不同的低層次結(jié)構(gòu)分割任務(wù)上實(shí)現(xiàn)了最先進(jìn)的性能。


Overview

本文是做什么的: 做的是參數(shù)高效微調(diào)(Parameter-Efficient Tuning)。例如對(duì)一個(gè)參數(shù)量巨大的模型,調(diào)整其所有參數(shù)是十分低效的,可以設(shè)計(jì)算法以只調(diào)整網(wǎng)絡(luò)的一小部分(額外的)參數(shù)來(lái)取得與完全調(diào)整相當(dāng)?shù)男阅堋?/p>

何為顯式(Explicit) 現(xiàn)有的方法(例如Visual Prompt Tuning)其所利用的提示(Prompt)是隱式的,也就是直接加網(wǎng)絡(luò)層進(jìn)去讓模型自己學(xué),具體學(xué)的東西是什么不知道,但最后模型性能有提升;本文的Prompt則是強(qiáng)制學(xué)習(xí)了模型的一些底層的結(jié)構(gòu)信息(FFT+IFFT取得的模型高頻成分),這些底層結(jié)構(gòu)信息所構(gòu)成的"手工特征"能夠大大提升Prompt的效果。

本文的核心思想其實(shí)比較類似于傳統(tǒng)分割網(wǎng)絡(luò)里面的boundary aware之類的方法,加額外的與圖片相關(guān)的信息進(jìn)去給網(wǎng)絡(luò)學(xué)。


Method

本文的網(wǎng)絡(luò)結(jié)構(gòu)如下所示:
[論文閱讀] Explicit Visual Prompting for Low-Level Structure Segmentations,劃水
虛線左邊為Adapter的結(jié)構(gòu),虛線右邊為整體結(jié)構(gòu)。以SegFormer的Transformer backbone為例,本文主要加了以下幾個(gè)東西,一個(gè)個(gè)來(lái)看:

  • Embedding Tune: 本文將Patch Embedding所得到的特征送入了一個(gè)Embedding Tune層。這么做的目的是輔助原始訓(xùn)練數(shù)據(jù)分布遷移到現(xiàn)在finetune的新數(shù)據(jù)上,思想類似于現(xiàn)有的VPT-Shallow。具體的網(wǎng)絡(luò)實(shí)現(xiàn)則是一個(gè)線性層就可以搞定。需要注意的是,這個(gè)線性層對(duì)輸入的Patch Embedding Feature進(jìn)行了降維,具體降多少算是本文的一個(gè)超參。

  • HTC Tune 直接從原始圖像中提取高頻分量,作為手工特征以輔助finetune。具體的網(wǎng)絡(luò)實(shí)現(xiàn)同樣是使用一個(gè)線性層將提取的frequency map轉(zhuǎn)化為特征。

  • Adapter 負(fù)責(zé)整合Embedding與HTC Tune獲得的信息,并將其送入到Transformer backbone的每一層中去。其網(wǎng)絡(luò)實(shí)現(xiàn)由三部分組成,分別為 M L P t u n e MLP_tune MLPt?une, G E L U GELU GELU M L P u p MLP_up MLPu?p,也就是兩個(gè)線性層以及中間的GELU。將第二個(gè)MLP共享可以認(rèn)為單純是為了節(jié)省參數(shù)量(見消融實(shí)驗(yàn))。


Ablation Study

[論文閱讀] Explicit Visual Prompting for Low-Level Structure Segmentations,劃水
本文主要所提出來(lái)的東西也就是這個(gè)高頻分量Adapter F h f c F_{hfc} Fhfc?。可以看到該組件在Shadow和Forgery上的貢獻(xiàn)較大,而在Defocus以及Camouflaged上的貢獻(xiàn)有限。事實(shí)上,對(duì)于Defocus以及Camouflaged這兩個(gè)任務(wù),修改單一的設(shè)計(jì)幾乎都不會(huì)對(duì)最終結(jié)果有較大的影響。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-608289.html

到了這里,關(guān)于[論文閱讀] Explicit Visual Prompting for Low-Level Structure Segmentations的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Lightening Network for Low-Light Image Enhancement 論文閱讀筆記

    Lightening Network for Low-Light Image Enhancement 論文閱讀筆記

    這是2022年TIP期刊的一篇有監(jiān)督暗圖增強(qiáng)的文章 網(wǎng)絡(luò)結(jié)構(gòu)如圖所示: LBP的網(wǎng)絡(luò)結(jié)構(gòu)如下: 有點(diǎn)繞,其基于的理論如下。就是說(shuō),普通的暗圖增強(qiáng)就只是走下圖的L1紅箭頭,從暗圖估計(jì)一個(gè)亮圖。但是其實(shí)這個(gè)亮圖和真實(shí)的亮圖還是有一些差距,怎么彌補(bǔ)呢,可以再進(jìn)一步學(xué)習(xí)

    2024年02月16日
    瀏覽(31)
  • LSTD: A Low-Shot Transfer Detector for Object Detection論文閱讀筆記

    LSTD: A Low-Shot Transfer Detector for Object Detection論文閱讀筆記

    提出low-shot Transfer detector,來(lái)解決標(biāo)注樣本數(shù)據(jù)不足的情況。利用source domain知識(shí),來(lái)構(gòu)建高效的target-domain檢測(cè)器,僅需要很少的訓(xùn)練樣本。 提出了一個(gè)高效的架構(gòu),集成了Faster-RCNN和SSD的優(yōu)點(diǎn)。 為low-shot dection引入了一個(gè)新穎的正則化遷移學(xué)習(xí)架構(gòu)。提出了tranfer knowledge(TK)和

    2024年02月12日
    瀏覽(19)
  • ExposureDiffusion: Learning to Expose for Low-light Image Enhancement論文閱讀筆記

    ExposureDiffusion: Learning to Expose for Low-light Image Enhancement論文閱讀筆記

    南洋理工大學(xué)、鵬城實(shí)驗(yàn)室、香港理工大學(xué)在ICCV2023發(fā)表的暗圖增強(qiáng)論文。用diffusion模型來(lái)進(jìn)行raw圖像暗圖增強(qiáng),同時(shí)提出了一個(gè)自適應(yīng)的殘差層用來(lái)對(duì)具有不同信噪比的不同區(qū)域采取不同的去噪策略。 方法的框圖如下所示: 一張raw圖片可以由信號(hào)和噪聲組成,其中信號(hào)是曝

    2024年02月07日
    瀏覽(26)
  • 【論文合集】Awesome Low Level Vision

    Low-level任務(wù):常見的包括 Super-Resolution,denoise, deblur, dehze, low-light enhancement, deartifacts等。簡(jiǎn)單來(lái)說(shuō),是把特定降質(zhì)下的圖片還原成好看的圖像,現(xiàn)在基本上用end-to-end的模型來(lái)學(xué)習(xí)這類 ill-posed問(wèn)題的求解過(guò)程,客觀指標(biāo)主要是PSNR,SSIM,大家指標(biāo)都刷的很高。目前面臨以

    2024年02月08日
    瀏覽(29)
  • Progressive Dual-Branch Network for Low-Light Image Enhancement 論文閱讀筆記

    Progressive Dual-Branch Network for Low-Light Image Enhancement 論文閱讀筆記

    這是22年中科院2區(qū)期刊的一篇有監(jiān)督暗圖增強(qiáng)的論文 網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示: ARM模塊如下圖所示: CAB模塊如下圖所示: LKA模塊其實(shí)就是放進(jìn)去了一些大卷積核: AFB模塊如下圖所示: 這些網(wǎng)絡(luò)結(jié)構(gòu)沒(méi)什么特別的,連來(lái)連去搞那么復(fù)雜沒(méi)什么意思,最終預(yù)測(cè)的結(jié)果是兩個(gè)支路的

    2024年02月16日
    瀏覽(24)
  • 論文閱讀——《Retinexformer: One-stage Retinex-based Transformer for Low-light Image Enhancement》

    論文閱讀——《Retinexformer: One-stage Retinex-based Transformer for Low-light Image Enhancement》

    本文試圖從原理和代碼簡(jiǎn)單介紹低照度增強(qiáng)領(lǐng)域中比較新的一篇論文——Retinexformer,其效果不錯(cuò),刷新了十三大暗光增強(qiáng)效果榜單。 ? 論文名稱 :Retinexformer: One-stage Retinex-based Transformer for Low-light Image Enhancement ?? 論文信息 :由清華大學(xué)聯(lián)合維爾茲堡大學(xué)和蘇黎世聯(lián)邦理工

    2024年01月18日
    瀏覽(29)
  • 論文閱讀:Meta-Prompting

    論文閱讀:Meta-Prompting

    元提示:任務(wù)-不可知論框架 強(qiáng)化 語(yǔ)言模型 “不可知論”,通常用來(lái)描述可以應(yīng)用于多種不同任務(wù)的模型,指模型并非為解決特定任務(wù)而設(shè)計(jì) github.com 摘要: 元提示引導(dǎo) LM 將復(fù)雜的任務(wù)分解為更小、更易于管理的子任務(wù),子任務(wù)由同一 LM 的不同“專家”實(shí)例處理,每個(gè)實(shí)例

    2024年04月12日
    瀏覽(19)
  • 論文閱讀之Reasoning Implicit Sentiment with Chain-of-Thought Prompting

    論文閱讀之Reasoning Implicit Sentiment with Chain-of-Thought Prompting

    本文主要對(duì)2023ACL論文《Reasoning Implicit Sentiment with Chain-of-Thought Prompting》主要內(nèi)容進(jìn)行介紹。 雖然情緒分析任務(wù)中通常根據(jù)輸入文本中的關(guān)鍵意見表達(dá)來(lái)確定給定目標(biāo)的情緒極性,但在隱式情緒分析(ISA)中,意見線索通常是隱含或者模糊的。因此,檢測(cè)隱含情緒需要常識(shí)和

    2024年03月22日
    瀏覽(46)
  • (論文閱讀)Chain-of-Thought Prompting Elicits Reasoningin Large Language Models

    (論文閱讀)Chain-of-Thought Prompting Elicits Reasoningin Large Language Models

    論文地址 https://openreview.net/pdf?id=_VjQlMeSB_J ????????我們探索如何生成一個(gè)思維鏈——一系列中間推理步驟——如何顯著提高大型語(yǔ)言模型執(zhí)行復(fù)雜推理的能力。 特別是,我們展示了這種推理能力如何通過(guò)一種稱為思維鏈提示的簡(jiǎn)單方法自然地出現(xiàn)在足夠大的語(yǔ)言模型中,

    2024年02月07日
    瀏覽(24)
  • RLE 稀疏水平集 RLE sparse level sets 論文閱讀筆記

    RLE 稀疏水平集 RLE sparse level sets 論文閱讀筆記

    原文: Houston, Ben, Mark Wiebe, and Chris Batty. “RLE sparse level sets.” ACM SIGGRAPH 2004 Sketches. 2004. 137. 只有一頁(yè),這就是技術(shù)草案的含金量嗎 run-length encoded, RLE 游程編碼 為什么 run-length 會(huì)被翻譯為游程 我理解它把連續(xù)的重復(fù)出現(xiàn)的數(shù)字編碼成 值+出現(xiàn)次數(shù) 的思想 但是還是理解不了這

    2024年02月22日
    瀏覽(30)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包