国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

《論文閱讀:Dataset Condensation with Distribution Matching》

這篇具有很好參考價值的文章主要介紹了《論文閱讀:Dataset Condensation with Distribution Matching》。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

點進(jìn)去這篇文章的開源地址,才發(fā)現(xiàn)這篇文章和DC DSA居然是一個作者,數(shù)據(jù)濃縮寫了三篇論文,第一篇梯度匹配,第二篇數(shù)據(jù)增強后梯度匹配,第三篇匹配數(shù)據(jù)分布。DC是匹配濃縮數(shù)據(jù)和原始數(shù)據(jù)訓(xùn)練一次后的梯度差,DSA是在DC前加入了一層數(shù)據(jù)增強,DM直接就匹配濃縮數(shù)據(jù)和原始數(shù)據(jù)丟入模型得到的輸出,匹配輸出的分布。

一個github地址包含了三個數(shù)據(jù)濃縮方法的開源代碼。

1. 基于分布匹配的數(shù)據(jù)集濃縮

在降低訓(xùn)練成本方面,最近一個很有前途的方向是數(shù)據(jù)集凝聚,其目的是在保留原始信息的情況下,用一個小得多的學(xué)習(xí)合成集取代原來的大訓(xùn)練集。
雖然在小集合的壓縮圖像上訓(xùn)練深度模型可以非??欤捎趶?fù)雜的雙層優(yōu)化和二階導(dǎo)數(shù)計算,它們的合成仍然是計算昂貴的(DD,DC,DSA)。
在本工作中,我們提出了一種簡單而有效的方法,通過匹配合成圖像和原始訓(xùn)練圖像在多個采樣嵌入空間的特征分布來合成壓縮圖像。我們的方法顯著降低了合成成本,同時實現(xiàn)了相當(dāng)或更好的性能。

2. 方法

2.1 數(shù)據(jù)濃縮的問題:

現(xiàn)有的方法包括DD,DC和DSA等,他們的弊端在于時間復(fù)雜度太高,內(nèi)層需要訓(xùn)練模型并更新濃縮數(shù)據(jù)集,外層還需要適應(yīng)不同的 θ 0 \theta_0 θ0?,實現(xiàn)起來需要三層循環(huán),時間復(fù)雜度高。

2.2 分布匹配的數(shù)據(jù)濃縮

真實數(shù)據(jù)分布記為 P D P_{\mathcal{D}} PD?
我們將訓(xùn)練數(shù)據(jù)記為 x ∈ ? d \boldsymbol{x} \in \Re^d x?d ,并且可以被編碼到一個低維空間,通過函數(shù) ψ ? : ? d → ? d ′ \psi_{\vartheta}: \Re^d \rightarrow \Re^{d^{\prime}} ψ??:?d?d ,其中 d ′ ? d d^{\prime} \ll d d?d , ? \vartheta ? 是函數(shù)的參數(shù)數(shù)值。 換句話說,每個embedding 函數(shù) ψ \psi ψ可以被視為提供其輸入的部分解釋,而它們的組合則提供完整的解釋。

現(xiàn)在我們可以使用常用的最大平均差異(MMD)來估計真實數(shù)據(jù)分布和合成數(shù)據(jù)分布之間的距離:
sup ? ∥ ψ ? ∥ H ≤ 1 ( E [ ψ ? ( T ) ] ? E [ ψ ? ( S ) ] ) \sup _{\left\|\psi_{\vartheta}\right\|_{\mathcal{H}} \leq 1}\left(\mathbb{E}\left[\psi_{\vartheta}(\mathcal{T})\right]-\mathbb{E}\left[\psi_{\vartheta}(\mathcal{S})\right]\right) ψ??H?1sup?(E[ψ??(T)]?E[ψ??(S)])

由于我們無法獲得真實數(shù)據(jù)分布,因此我們使用 MMD 的經(jīng)驗估計:
E ? ~ P ? ∥ 1 ∣ T ∣ ∑ i = 1 ∣ T ∣ ψ ? ( x i ) ? 1 ∣ S ∣ ∑ j = 1 ∣ S ∣ ψ ? ( s j ) ∥ 2 \mathbb{E}_{\boldsymbol{\vartheta} \sim P_{\vartheta}}\left\|\frac{1}{|\mathcal{T}|} \sum_{i=1}^{|\mathcal{T}|} \psi_{\boldsymbol{\vartheta}}\left(\boldsymbol{x}_i\right)-\frac{1}{|\mathcal{S}|} \sum_{j=1}^{|\mathcal{S}|} \psi_{\boldsymbol{\vartheta}}\left(\boldsymbol{s}_j\right)\right\|^2 E?P??? ?T1?i=1T?ψ??(xi?)?S1?j=1S?ψ??(sj?) ?2

就是在不同參數(shù)取值的embedding函數(shù)下,輸入原始數(shù)據(jù)和濃縮數(shù)據(jù)得到的輸出要盡可能接近,論文里就直接使用了神經(jīng)網(wǎng)絡(luò)的輸出,讓神經(jīng)網(wǎng)絡(luò)的輸出盡可能接近。

因為這篇論文是DSA的后續(xù)作,所以順其自然,沿用了DSA的方法,訓(xùn)練的時候?qū)饪s數(shù)據(jù)和原始數(shù)據(jù)都進(jìn)行了相同的數(shù)據(jù)增強。
min ? S E ω ~ P ? ω ~ Ω ∥ 1 ∣ T ∣ ∑ i = 1 ∣ T ∣ ψ ? ( A ( x i , ω ) ) ? 1 ∣ S ∣ ∑ j = 1 ∣ S ∣ ψ ? ( A ( s j , ω ) ) ∥ 2 \min _{\mathcal{S}} \mathbb{E}_{\substack{\boldsymbol{\omega} \sim P_{\boldsymbol{\vartheta}} \\ \omega \sim \Omega}}\left\|\frac{1}{|\mathcal{T}|} \sum_{i=1}^{|\mathcal{T}|} \psi_{\boldsymbol{\vartheta}}\left(\mathcal{A}\left(\boldsymbol{x}_i, \omega\right)\right)-\frac{1}{|\mathcal{S}|} \sum_{j=1}^{|\mathcal{S}|} \psi_{\boldsymbol{\vartheta}}\left(\mathcal{A}\left(\boldsymbol{s}_j, \omega\right)\right)\right\|^2 Smin?EωP??ωΩ?? ?T1?i=1T?ψ??(A(xi?,ω))?S1?j=1S?ψ??(A(sj?,ω)) ?2
A \mathcal{A} A就是對應(yīng)的數(shù)據(jù)增強操作, ω \omega ω是對應(yīng)數(shù)據(jù)增強操作的參數(shù)。

2.3 訓(xùn)練步驟

《論文閱讀:Dataset Condensation with Distribution Matching》,聯(lián)邦學(xué)習(xí),論文閱讀
訓(xùn)練K-1步,每一步都選定一個embedding函數(shù)的參數(shù),不斷地訓(xùn)練并修改S使得S輸出盡可能接近原始數(shù)據(jù)集T。(這個embedding函數(shù)就是一個具體的神經(jīng)網(wǎng)絡(luò))

3. 結(jié)果

《論文閱讀:Dataset Condensation with Distribution Matching》,聯(lián)邦學(xué)習(xí),論文閱讀
由于此方法計算不需要計算梯度,只需要正向傳播embedding網(wǎng)絡(luò),得到輸出之后反向傳播濃縮數(shù)據(jù)集S即可,因此可以壓縮到更多數(shù)量的圖片上,并且第一次在TinyImageNet這種大數(shù)據(jù)集上進(jìn)行壓縮。

《論文閱讀:Dataset Condensation with Distribution Matching》,聯(lián)邦學(xué)習(xí),論文閱讀
比起DC和DSA,DM得到的數(shù)據(jù)分布更接近原始數(shù)據(jù)分布。文章來源地址http://www.zghlxwxcb.cn/news/detail-718134.html

到了這里,關(guān)于《論文閱讀:Dataset Condensation with Distribution Matching》的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 聯(lián)邦學(xué)習(xí)FL+激勵機制+區(qū)塊鏈論文閱讀3

    聯(lián)邦學(xué)習(xí)FL+激勵機制+區(qū)塊鏈論文閱讀3

    FIFL: A Fair Incentive Mechanism for Federated Learning FL公平激勵機制(多中心FL,無區(qū)塊鏈) 論文資源已免費上傳 1)沒有與其花費的資源相匹配的獎勵,設(shè)備就沒有興趣參加訓(xùn)練。 2)防范惡意員工——上傳無意義的更新進(jìn)行破壞,防范低水平與搭便車者——獲得獎勵大于為系統(tǒng)帶來的

    2024年02月02日
    瀏覽(30)
  • 【論文閱讀】異構(gòu)聯(lián)邦學(xué)習(xí)綜述:最新進(jìn)展與研究挑戰(zhàn)

    【論文閱讀】異構(gòu)聯(lián)邦學(xué)習(xí)綜述:最新進(jìn)展與研究挑戰(zhàn)

    這是關(guān)于一篇異構(gòu)聯(lián)邦學(xué)習(xí)的綜述,希望能從這篇文章對聯(lián)邦學(xué)習(xí)有一個大致的了解。作者從一開始就呈現(xiàn)了文章總體的思維導(dǎo)圖,非常具有指引效果。 這是論文地址: Heterogeneous Federated Learning: State-of-the-art and Research Challenges 通俗的來說就是: 允許多個設(shè)備或數(shù)據(jù)源在不共

    2024年02月04日
    瀏覽(29)
  • 【聯(lián)邦學(xué)習(xí)論文閱讀】常用算法理解(SCAFFOLD、FedPD、FedBN)-目前僅SCAFFOLD

    【聯(lián)邦學(xué)習(xí)論文閱讀】常用算法理解(SCAFFOLD、FedPD、FedBN)-目前僅SCAFFOLD

    SCAFFOLD(ICML-2020):SCAFFOLD: Stochastic Controlled Averaging for Federated Learning FedPD:https://arxiv.org/abs/2005.11418 FedBN(ICLR 2021):FEDBN: FEDERATED LEARNING ON NON-IID FEATURES VIA LOCAL BATCH NORMALIZATION 1… 梯度 實際上是對用戶數(shù)據(jù)進(jìn)行函數(shù)變換,在訓(xùn)練數(shù)據(jù)時攜帶信息,可能有泄露梯度隱私的風(fēng)險。

    2023年04月20日
    瀏覽(46)
  • 論文解讀:SuperGlue: Learning Feature Matching with Graph Neural Networks

    論文解讀:SuperGlue: Learning Feature Matching with Graph Neural Networks

    SuperGlue: Learning Feature Matching with Graph Neural Networks 發(fā)表時間:2020 論文地址:https://arxiv.org/abs/1911.11763 項目地址:http://github.com/magicleap/SuperGluePretrainedNetwork。 本文介紹了一種通過聯(lián)合尋找對應(yīng)和拒絕非匹配點來匹配兩組局部特征的神經(jīng)網(wǎng)絡(luò)。通過求解一個可微最優(yōu)傳輸問題來估

    2024年02月08日
    瀏覽(20)
  • 【論文閱讀】Circinus: Fast Redundancy-Reduced Subgraph Matching

    【論文閱讀】Circinus: Fast Redundancy-Reduced Subgraph Matching

    Jin T, Li B, Li Y, et al. Circinus: Fast redundancy-reduced subgraph matching[J]. Proceedings of the ACM on Management of Data, 2023, 1(1): 1-26. 子圖匹配是圖分析中的重要問題之一。目前已經(jīng)提出了許多針對子圖匹配的算法和系統(tǒng)。這些工作大部分都遵循烏爾曼的回溯方法,因為它在處理爆炸性數(shù)量的中間

    2024年02月03日
    瀏覽(23)
  • 論文閱讀《Domain Generalized Stereo Matching via Hierarchical Visual Transformation》

    論文地址:https://openaccess.thecvf.com/content/CVPR2023/html/Chang_Domain_Generalized_Stereo_Matching_via_Hierarchical_Visual_Transformation_CVPR_2023_paper.html ?? 立體匹配模型是近年來的研究熱點。但是,現(xiàn)有的方法過分依賴特定數(shù)據(jù)集上的簡單特征,導(dǎo)致在新的數(shù)據(jù)集上泛化能力不強。現(xiàn)有的立體匹配

    2024年02月04日
    瀏覽(18)
  • 【計算機視覺 | 目標(biāo)檢測】Open-Vocabulary DETR with Conditional Matching論文解讀

    【計算機視覺 | 目標(biāo)檢測】Open-Vocabulary DETR with Conditional Matching論文解讀

    論文題目:具有條件匹配的開放詞匯表DETR 開放詞匯對象檢測是指在自然語言的引導(dǎo)下對新對象進(jìn)行檢測的問題,越來越受到社會的關(guān)注。理想情況下,我們希望擴展一個開放詞匯表檢測器,這樣它就可以基于自然語言或范例圖像形式的用戶輸入生成邊界框預(yù)測。這為人機交

    2024年01月21日
    瀏覽(18)
  • 【論文閱讀】Generalized Focal Loss的解讀。交叉熵、Focal Loss、Quality Focal Loss、Distribution Focal Loss

    【論文閱讀】Generalized Focal Loss的解讀。交叉熵、Focal Loss、Quality Focal Loss、Distribution Focal Loss

    論文鏈接:https://arxiv.org/pdf/2006.04388.pdf 已有方法中,單階段密集檢測器一般分為三個輸出內(nèi)容 : 檢測框質(zhì)量估計confidence: channel維度上占 1; 訓(xùn)練時正樣本標(biāo)簽為當(dāng)前grid_ceil對應(yīng)的標(biāo)簽框和預(yù)測框的iou score、或者centerness score,負(fù)樣本為0。 檢測框box: channel維度上占4;分別

    2024年01月18日
    瀏覽(20)
  • 論文閱讀《GlueStick: Robust Image Matching by Sticking Points and Lines Together》

    論文閱讀《GlueStick: Robust Image Matching by Sticking Points and Lines Together》

    論文地址:https://arxiv.org/abs/2304.02008 源碼地址:https://github.com/cvg/GlueStick ??針對視角變化時在閉塞、無紋理、重復(fù)紋理區(qū)域的線段匹配難的問題,本文提出一種新的匹配范式(GlueStick),該方法基于深度圖神經(jīng)網(wǎng)絡(luò)將點、線的描述符統(tǒng)一到一個框架中,利用點之間的信息將

    2024年02月08日
    瀏覽(23)
  • 【論文閱讀】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction

    【論文閱讀】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction

    標(biāo)題:RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction 會議:ACL2023 網(wǎng)址:https://aclanthology.org/2023.acl-long.369 github:https://github.com/zweny/RE-Matching 關(guān)系抽?。簉elation extraction是NLP的一個基本任務(wù),目的是從非結(jié)構(gòu)化文本中提取實體之間的關(guān)系。關(guān)系抽取有助于構(gòu)

    2024年02月04日
    瀏覽(16)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包