国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文閱讀:GamutMLP A Lightweight MLP for Color Loss Recovery

這篇具有很好參考價(jià)值的文章主要介紹了論文閱讀:GamutMLP A Lightweight MLP for Color Loss Recovery。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

這篇文章是關(guān)于色彩恢復(fù)的一項(xiàng)工作,發(fā)表在 CVPR2023,其中之一的作者是 Michael S. Brown,這個(gè)老師是加拿大 York 大學(xué)的,也是 ISP 領(lǐng)域的大牛,現(xiàn)在好像也在三星研究院擔(dān)任兼職,這個(gè)老師做了很多這種類似的工作,通過一些輕量模型,將一些數(shù)據(jù)轉(zhuǎn)換過程中的變換關(guān)系進(jìn)行擬合,然后再進(jìn)行恢復(fù),比如 RAW域 到 sRGB 域的轉(zhuǎn)換,這篇文章是 wide RGB 到 sRGB 的轉(zhuǎn)換

一般相機(jī)的 ISP 或者一些圖像編輯軟件,可以處理更為寬廣的色域,也就是 wide-gamut,廣色域基本涵蓋了 90% 的可見光色彩空間,不過這些圖像最終轉(zhuǎn)換到標(biāo)準(zhǔn)色域 standard-RGB (sRGB) 的時(shí)候,由于標(biāo)準(zhǔn)色域空間 sRGB 只涵蓋了 30% 的色彩空間,所以會(huì)有很多的截?cái)嗉熬葥p失,這篇文章也是借助神經(jīng)網(wǎng)絡(luò)強(qiáng)大的隱式表達(dá)能力,這篇文章提出在進(jìn)行色彩轉(zhuǎn)換的時(shí)候,用一個(gè)輕量級的的 MLP 去記錄轉(zhuǎn)換時(shí)的截?cái)嘞袼刂怠_@個(gè) MLP 需要大概 2s 的時(shí)間訓(xùn)練,需要大概 23k 的存儲(chǔ)空間,可以看到,這是一個(gè)類似在線擬合的過程,每轉(zhuǎn)換一張圖片,需要同步去訓(xùn)練一個(gè) MLP 在線擬合這個(gè)色彩轉(zhuǎn)換過程,然后后面需要再進(jìn)行色彩恢復(fù)的時(shí)候,可以調(diào)用這個(gè)模型進(jìn)行色彩恢復(fù)。

文章整體的思路還是比較直觀簡單的,可以分成兩個(gè)階段,第一個(gè)階段是編碼階段,也就是從 wide gamut 到 standard gamut 的時(shí)候,需要同步訓(xùn)練一個(gè) MLP; 第二個(gè)階段可以認(rèn)為是解碼階段,就是從 standard gamut 重新擴(kuò)展成 wide gamut 的時(shí)候。

  • 編碼階段

論文閱讀:GamutMLP A Lightweight MLP for Color Loss Recovery,計(jì)算攝影與圖像處理,論文閱讀

  • 解碼階段

論文閱讀:GamutMLP A Lightweight MLP for Color Loss Recovery,計(jì)算攝影與圖像處理,論文閱讀

假設(shè)一張 wide gamut 的圖像可以表示成 I P P ∈ R 3 × N \mathbf{I}_{PP} \in \mathbb{R}^{3 \times N} IPP?R3×N,轉(zhuǎn)換后的 sRGB 圖像為 I s R G B \mathbf{I}_{sRGB} IsRGB?,整個(gè)轉(zhuǎn)換過程可以表示為:

I s R G B = g ( clip ( M I P P , m i n = 0 , m a x = 1.0 ) ) (1) \mathbf{I}_{sRGB} = g(\text{clip}(\mathbf{M}\mathbf{I}_{PP}, min=0, max=1.0)) \tag{1} IsRGB?=g(clip(MIPP?,min=0,max=1.0))(1)

M \mathbf{M} M 是一個(gè)色彩轉(zhuǎn)換矩陣, I P P \mathbf{I}_{PP} IPP? 表示廣色域的圖像,clip 是一個(gè)截?cái)嗖僮鳎?span id="n5n3t3z" class="katex--inline"> g g g 表示 gamma 變換,可以看到,由于其中有一個(gè) clip 的截?cái)嗖僮?,所在這個(gè)變換是不可逆的,當(dāng)從 sRGB 圖像轉(zhuǎn)換回 wide gamut 圖像時(shí),可以用下面的式子表示:

I C l i p e d P P = M ? 1 g ? 1 ( I s R G B ) (2) \mathbf{I}_{ClipedPP} =\mathbf{M}^{-1}g^{-1}(\mathbf{I}_{sRGB}) \tag{2} IClipedPP?=M?1g?1(IsRGB?)(2)

為了能從 I C l i p e d P P \mathbf{I}_{ClipedPP} IClipedPP? 恢復(fù)得到真正的 I P P \mathbf{I}_{PP} IPP?,文章提出用一個(gè) MLP 網(wǎng)絡(luò)來進(jìn)行擬合。MLP 本身預(yù)測的是殘差,整個(gè)恢復(fù)過程如下所示:

論文閱讀:GamutMLP A Lightweight MLP for Color Loss Recovery,計(jì)算攝影與圖像處理,論文閱讀

I ^ P P ( x ) = f θ ( x , I C l i p e d P P ( x ) ) + I C l i p e d P P ( x ) (3) \hat{\mathbf{I}}_{PP}(\mathbf{x}) = f_{\theta} (\mathbf{x}, \mathbf{I}_{ClipedPP}(\mathbf{x})) + \mathbf{I}_{ClipedPP}(\mathbf{x}) \tag{3} I^PP?(x)=fθ?(x,IClipedPP?(x))+IClipedPP?(x)(3)

其中, f θ ( x , I C l i p e d P P ( x ) ) f_{\theta} (\mathbf{x}, \mathbf{I}_{ClipedPP}(\mathbf{x})) fθ?(x,IClipedPP?(x)) 就是 MLP 網(wǎng)絡(luò)預(yù)測的殘差, I ^ P P ( x ) \hat{\mathbf{I}}_{PP}(\mathbf{x}) I^PP?(x) 表示最終恢復(fù)的 wide gamut 的 RGB 值,網(wǎng)絡(luò)的輸入是一個(gè)五維的向量 ( x , y , R ′ , G ′ , B ′ ) (x, y, R', G', B') (x,y,R,G,B) ,文章中用了一個(gè)編碼函數(shù),對每個(gè)維度進(jìn)行了編碼,編碼函數(shù)如下所示:

γ ( m ) = ( sin ? ( 2 0 π m ) , cos ? ( 2 0 π m ) , . . . , sin ? ( 2 K ? 1 π m ) , cos ? ( 2 K ? 1 π m ) ) (4) \gamma(m) = ( \sin(2^{0}\pi m), \cos(2^{0}\pi m), ..., \sin(2^{K-1}\pi m), \cos(2^{K-1}\pi m) ) \tag{4} γ(m)=(sin(20πm),cos(20πm),...,sin(2K?1πm),cos(2K?1πm))(4)

每個(gè)維度編碼成一個(gè) 24 維的向量,5 個(gè)維度一共是 120 維的向量。最終的損失函數(shù)是一個(gè) L 2 L_2 L2? 的 loss

L g a m u t = ∑ x ∥ I ^ P P ( x ) ? I P P ( x ) ∥ (5) \mathcal{L}_{gamut} = \sum_{\mathbf{x}} \left \| \hat{\mathbf{I}}_{PP}(\mathbf{x}) - \mathbf{I}_{PP}(\mathbf{x}) \right \| \tag{5} Lgamut?=x? ?I^PP?(x)?IPP?(x) ?(5)

文章中也提到,訓(xùn)練的時(shí)候,不能只用 out-of-gamut 的像素值訓(xùn)練,out-of-gamut 和 in-gamut 都用上,模型擬合的效果最好,文章最后用了 20% 的 out-of-gamut 的像素,以及 2% 的 in-gamut 的像素,混合著訓(xùn)練。最后就是實(shí)驗(yàn)結(jié)果了。

論文閱讀:GamutMLP A Lightweight MLP for Color Loss Recovery,計(jì)算攝影與圖像處理,論文閱讀

這篇文章主要是為了解決色域轉(zhuǎn)換時(shí)候的精度損失及截?cái)鄦栴},通過在線訓(xùn)練一個(gè) MLP 網(wǎng)絡(luò),對轉(zhuǎn)換過程進(jìn)行擬合,文章整體的思路簡單直觀,效果從文章給的結(jié)果來看,比之前的一些方法要好。畢竟是每張圖片都需要單獨(dú)訓(xùn)練一個(gè) MLP 網(wǎng)絡(luò),用效率換效果了。文章來源地址http://www.zghlxwxcb.cn/news/detail-826944.html

到了這里,關(guān)于論文閱讀:GamutMLP A Lightweight MLP for Color Loss Recovery的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【論文閱讀】Generalized Focal Loss的解讀。交叉熵、Focal Loss、Quality Focal Loss、Distribution Focal Loss

    【論文閱讀】Generalized Focal Loss的解讀。交叉熵、Focal Loss、Quality Focal Loss、Distribution Focal Loss

    論文鏈接:https://arxiv.org/pdf/2006.04388.pdf 已有方法中,單階段密集檢測器一般分為三個(gè)輸出內(nèi)容 : 檢測框質(zhì)量估計(jì)confidence: channel維度上占 1; 訓(xùn)練時(shí)正樣本標(biāo)簽為當(dāng)前grid_ceil對應(yīng)的標(biāo)簽框和預(yù)測框的iou score、或者centerness score,負(fù)樣本為0。 檢測框box: channel維度上占4;分別

    2024年01月18日
    瀏覽(20)
  • 論文閱讀——Loss odyssey in medical image segmentation

    論文閱讀——Loss odyssey in medical image segmentation

    Loss odyssey in medical image segmentation github:https://github.com/JunMa11/SegLossOdyssey 這篇文章回顧了醫(yī)學(xué)圖像分割中的20種不同的損失函數(shù),旨在回答:對于醫(yī)學(xué)圖像分割任務(wù),我們應(yīng)該選擇哪種損失函數(shù)? 首先是一張各類分割函數(shù)的圖譜: 介紹函數(shù)之前先定義字母符號的含義: , 分別

    2024年02月04日
    瀏覽(25)
  • Perceptual Loss(感知損失)&Perceptual Losses for Real-Time Style Transferand Super-Resolution論文解讀

    Perceptual Loss(感知損失)&Perceptual Losses for Real-Time Style Transferand Super-Resolution論文解讀

    由于傳統(tǒng)的L1,L2 loss是針對于像素級的損失計(jì)算,且L2 loss與人眼感知的圖像質(zhì)量并不匹配,單一使用L1或L2 loss對于超分等任務(wù)來說恢復(fù)出來的圖像往往細(xì)節(jié)表現(xiàn)都不好。 現(xiàn)在的研究中,L2 loss逐步被人眼感知loss所取代。人眼感知loss也被稱為perceptual loss(感知損失),它與MSE(

    2023年04月20日
    瀏覽(28)
  • [論文閱讀]A ConvNet for the 2020s

    [論文閱讀]A ConvNet for the 2020s

    視覺識(shí)別的咆哮的20年代開始于ViTs的引入,它很快取代了卷積神經(jīng)網(wǎng)絡(luò),成為最先進(jìn)的圖像分類模型。另一方面,一個(gè)原始的ViT在用于一般的比如目標(biāo)識(shí)別和語義分割的計(jì)算機(jī)視覺任務(wù)的時(shí)候面臨困難。層次Transformer(例如,Swin-Transformer),它重新引入了幾個(gè)卷積神經(jīng)網(wǎng)絡(luò)先驗(yàn)

    2024年02月07日
    瀏覽(21)
  • Hopper: Interpretative Fuzzing for Libraries——論文閱讀

    Hopper: Interpretative Fuzzing for Libraries——論文閱讀

    problem 1 :雖然目前最先進(jìn)的fuzzers能夠有效地生成輸入,但是現(xiàn)有的模糊驅(qū)動(dòng)程序仍然不能全面覆蓋庫的入口。(entries in libraries,庫中的不同條目或入口點(diǎn)。包括調(diào)用庫中的函數(shù)、使用庫中的類等) problem 2 :大多數(shù)模糊驅(qū)動(dòng)程序都是開發(fā)人員手工制作的,它們的質(zhì)量取決于開

    2024年02月02日
    瀏覽(23)
  • 【論文閱讀——Profit Allocation for Federated Learning】

    【論文閱讀——Profit Allocation for Federated Learning】

    由于更為嚴(yán)格的數(shù)據(jù)管理法規(guī),如《通用數(shù)據(jù)保護(hù)條例》(GDPR),傳統(tǒng)的機(jī)器學(xué)習(xí)服務(wù)生產(chǎn)模式正在轉(zhuǎn)向聯(lián)邦學(xué)習(xí)這一范式。聯(lián)邦學(xué)習(xí)允許多個(gè)數(shù)據(jù)提供者在其本地保留數(shù)據(jù)的同時(shí),協(xié)作訓(xùn)練一個(gè)共享模型。推動(dòng)聯(lián)邦學(xué)習(xí)實(shí)際應(yīng)用的關(guān)鍵在于如何將聯(lián)合模型產(chǎn)生的利潤公平地

    2024年04月13日
    瀏覽(29)
  • 論文閱讀《Hierarchical Aggregation for 3D Instance Segmentation》

    論文閱讀《Hierarchical Aggregation for 3D Instance Segmentation》

    Hierarchical Aggregation for 3D Instance Segmentation是一個(gè)用于實(shí)例分割的方法,他主要利用了點(diǎn)以及點(diǎn)集之間的空間關(guān)系,以此進(jìn)行實(shí)例分割。大概步驟如下: 首先進(jìn)行低帶寬點(diǎn)匯集得到初步的實(shí)例以避免過度分割 之后進(jìn)行動(dòng)態(tài)帶寬集合匯集以得到完整的實(shí)例 引入實(shí)例內(nèi)網(wǎng)絡(luò)進(jìn)行去

    2024年02月04日
    瀏覽(30)
  • 【論文閱讀】Scaling Laws for Neural Language Models

    【論文閱讀】Scaling Laws for Neural Language Models

    本文簡要介紹 Scaling law 的主要結(jié)論 原文地址:Scaling Laws for Neural Language Models 個(gè)人認(rèn)為不需要特別關(guān)注公式內(nèi)各種符號的具體數(shù)值,而更應(yīng)該關(guān)注不同因素之間的關(guān)系,比例等 Performance depends strongly on scale, weakly on model shape scale: 參數(shù)量 N N N , 數(shù)據(jù)量 D D D , 計(jì)算量 C C C shape: 模

    2024年02月16日
    瀏覽(30)
  • 【論文閱讀】Resource Allocation for Text Semantic Communications

    【論文閱讀】Resource Allocation for Text Semantic Communications

    這是一篇關(guān)于語義通信中資源分配的論文。全文共5頁,篇幅較短。 語義通信在傳輸可靠性方面有著天然優(yōu)勢,而其中的資源分配更是保證語義傳輸可靠性和通信效率的關(guān)鍵所在,但目前還沒有研究者探索該領(lǐng)域。為了填補(bǔ)這一空白,我們研究了語義領(lǐng)域的頻譜效率,并重新

    2024年02月03日
    瀏覽(27)
  • 【論文閱讀】Equivariant Contrastive Learning for Sequential Recommendation

    【論文閱讀】Equivariant Contrastive Learning for Sequential Recommendation

    2023-RecSys https://github.com/Tokkiu/ECL 對比學(xué)習(xí)(CL)有利于對具有信息性自我監(jiān)督信號的順序推薦模型的訓(xùn)練。 現(xiàn)有的解決方案應(yīng)用一般的順序數(shù)據(jù)增強(qiáng)策略來生成正對,并鼓勵(lì)它們的表示是不變的。 然而,由于用戶行為序列的固有屬性,一些增強(qiáng)策略,如項(xiàng)目替代,可能會(huì)導(dǎo)致

    2024年01月18日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包