国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

《Learning to Reweight Examples for Robust Deep Learning》筆記

這篇具有很好參考價(jià)值的文章主要介紹了《Learning to Reweight Examples for Robust Deep Learning》筆記。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

[1] 用 meta-learning 學(xué)樣本權(quán)重,可用于 class imbalance、noisy label 場景。之前對(duì)其 (7) 式中 ? i , t = 0 \epsilon_{i,t}=0 ?i,t?=0對(duì)應(yīng) Algorithm 1 第 5 句、代碼 ex_wts_a = tf.zeros([bsize_a], dtype=tf.float32))不理解:如果 ? \epsilon ? 已知是 0,那 (4) 式的加權(quán) loss 不是恒為零嗎?(5) 式不是優(yōu)化了個(gè)吉而 θ ^ t + 1 ( ? ) ≡ θ t \hat\theta_{t+1}(\epsilon) \equiv \theta_t θ^t+1?(?)θt? ?有人在 issue 提了這個(gè)問題[2],但其人想通了沒解釋就關(guān)了 issue。

看到 [3] 代碼中對(duì) ? \epsilon ? 設(shè)了 requires_grad=True 才反應(yīng)過來:用編程的話說, ? \epsilon ? 不應(yīng)理解成常量,而是變量; 用數(shù)學(xué)的話說,(5) 的求梯度( ? \nabla ?)是算子,而不是函數(shù),即 (5) 只是在借梯度下降建立 θ ^ t + 1 \hat\theta_{t+1} θ^t+1? ? \epsilon ? 之間的函數(shù)(或用 TensorFlow 的話說,只是在建圖),即 θ ^ t + 1 ( ? ) \hat\theta_{t+1}(\epsilon) θ^t+1?(?),而不是基于常量 θ t \theta_t θt?、 ? = 0 \epsilon=0 ?=0 算了一步 SGD 得到一個(gè)常量 θ ^ t + 1 \hat\theta_{t+1} θ^t+1?。

一個(gè)符號(hào)細(xì)節(jié):無 hat 的 θ t + 1 \theta_{t+1} θt+1? 指由 (3) 用無 perturbation 的 loss 經(jīng) SGD 從 θ t \theta_t θt? 優(yōu)化一步所得; θ ^ t + 1 \hat\theta_{t+1} θ^t+1? 則是用 (4) perturbed loss。文中 (6)、(7) 有錯(cuò)用作 θ t + 1 \theta_{t+1} θt+1? 的嫌疑。

所以大思路是用 clean validation set 構(gòu)造一條關(guān)于 ? \epsilon ? 的 loss J ( ? ) J(\epsilon) J(?),然后用優(yōu)化器求它,即 ? t ? = arg ? min ? ? J ( ? ) \epsilon_t^*=\arg\min_\epsilon J(\epsilon) ?t??=argmin??J(?)。由 (4) - (6) 有: J ( ? ) = 1 M ∑ j = 1 M f j v ( θ ^ t + 1 ( ? ) ) ( 6 ) = 1 M ∑ j = 1 M f j v ( θ t ? α [ ? θ ∑ i = 1 n f i , ? ( θ ) ] ∣ θ = θ t ? g 1 ( ? ; θ t ) ) ( 5 ) = 1 M ∑ j = 1 M f j v ( θ t ? α [ ? θ ∑ i = 1 n ? i f i ( θ ) ] ∣ θ = θ t ) ( 4 ) = g 2 ( ? ; θ t ) \begin{aligned} J(\epsilon) &= \frac{1}{M}\sum_{j=1}^M f_j^v \left(\hat\theta_{t+1}(\epsilon) \right) & (6) \\ &= \frac{1}{M}\sum_{j=1}^M f_j^v \left(\theta_t - \alpha \underbrace{\left[ \nabla_{\theta} \sum_{i=1}^n f_{i,\epsilon}(\theta) \right] \bigg|_{\theta=\theta_t}}_{g_1(\epsilon; \theta_t)} \right) & (5) \\ &= \frac{1}{M}\sum_{j=1}^M f_j^v \left(\theta_t - \alpha \left[ \nabla_{\theta} \sum_{i=1}^n \epsilon_i f_i(\theta) \right] \bigg|_{\theta=\theta_t} \right) & (4) \\ &= g_2(\epsilon; \theta_t) \end{aligned} J(?)?=M1?j=1M?fjv?(θ^t+1?(?))=M1?j=1M?fjv? ?θt??αg1?(?;θt?) [?θ?i=1n?fi,??(θ)] ?θ=θt???? ?=M1?j=1M?fjv?(θt??α[?θ?i=1n??i?fi?(θ)] ?θ=θt??)=g2?(?;θt?)?(6)(5)(4)? 要注意的就是 (5) 那求導(dǎo)式,本質(zhì)是個(gè)函數(shù),而不是常量,其中 ? \epsilon ? 是自由的, θ \theta θ 由于被 ∣ θ = θ t |_{\theta=\theta_t} θ=θt?? 指定了,所以看成常量,所以記為 g 1 ( ? ; θ t ) g_1(\epsilon;\theta_t) g1?(?;θt?),于是整個(gè) J ( ? ) J(\epsilon) J(?) 也可以看成一個(gè) g 2 ( ? ; θ t ) g_2(\epsilon; \theta_t) g2?(?;θt?)。

按 (6) 求 ? t ? \epsilon_t^* ?t?? 的思路就是:

  1. 隨機(jī)初始化 ? t ( 0 ) \epsilon_t^{(0)} ?t(0)?
  2. ? t ( s + 1 ) ← ? t ( s ) ? η ? ? J ( ? ) ∣ ? = ? t ( s ) \epsilon^{(s+1)}_t \leftarrow \epsilon^{(s)}_t - \eta \nabla_{\epsilon} J(\epsilon) \big|_{\epsilon=\epsilon^{(s)}_t} ?t(s+1)??t(s)??η???J(?) ??=?t(s)??,即 (7) 右邊??赡苡捎? J ( ? ) J(\epsilon) J(?) 形式上是帶梯度的表達(dá)式, § \S § 3.3 就稱此為「unroll the gradient graph」,而求 ? t ( s + 1 ) \epsilon^{(s+1)}_t ?t(s+1)? 的這一步就稱為「backward-on-backward」吧。

而文章的 online approximation 就是:

  • ? t ( 0 ) = 0 \epsilon^{(0)}_t=0 ?t(0)?=0
  • ? t ? ≈ ? t ( 1 ) \epsilon^*_t \approx \epsilon^{(1)}_t ?t???t(1)?

初始化為 0 可能不是最好的初始化方法,但不影響后續(xù)迭代優(yōu)化,可參考 LoRA[7],它也用到全零初始化。文章來源地址http://www.zghlxwxcb.cn/news/detail-817937.html

References

  1. (ICML’18) Learning to Reweight Examples for Robust Deep Learning - paper, code
  2. gradients of noisy loss w.r.t parameter \theta #2
  3. (PyTorch 復(fù)現(xiàn) 1)TinfoilHat0/Learning-to-Reweight-Examples-for-Robust-Deep-Learning-with-PyTorch-Higher
  4. (PyTorch 復(fù)現(xiàn) 2)danieltan07/learning-to-reweight-examples
  5. facebookresearch/higher
  6. Stateful vs stateless
  7. (ICLR’22) LoRA: Low-Rank Adaptation of Large Language Models - paper, code

到了這里,關(guān)于《Learning to Reweight Examples for Robust Deep Learning》筆記的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記

    《Cache-Aided MEC for IoT: Resource Allocation Using Deep Graph Reinforcement Learning》閱讀筆記

    MEC使能的IoT能夠解決物聯(lián)網(wǎng)中時(shí)延敏感/計(jì)算敏感服務(wù)的需要 提出cache-aided MEC卸載框架,允許用戶將計(jì)算任務(wù)卸載到邊緣服務(wù)器上。 該框架的目標(biāo)是最小化計(jì)算卸載和資源分類配的系統(tǒng)時(shí)延,將系統(tǒng)建模為部分可觀測(cè)馬爾可夫過程的多智能體決策問題。 提出基于深度圖卷積強(qiáng)

    2024年02月02日
    瀏覽(18)
  • 【論文閱讀】SISR綜述:From Beginner to Master: A Survey for Deep Learning-based Single-Image Super-Resolution

    【論文閱讀】SISR綜述:From Beginner to Master: A Survey for Deep Learning-based Single-Image Super-Resolution

    論文地址:https://doi.org/10.48550/arXiv.2109.14335 單幅圖像超分辨率(SISR)是圖像處理中的一項(xiàng)重要任務(wù),旨在提高成像系統(tǒng)的分辨率。近年來,在深度學(xué)習(xí)(DL)的幫助下,SISR取得了巨大的飛躍,并取得了可喜的成果。在本綜述中,我們對(duì)基于dl的SISR方法進(jìn)行了概述,并根據(jù)重建效率

    2024年02月08日
    瀏覽(34)
  • Benchmarking Augmentation Methods for Learning Robust Navigation Agents 論文閱讀

    Benchmarking Augmentation Methods for Learning Robust Navigation Agents 論文閱讀

    題目 :Benchmarking Augmentation Methods for Learning Robust Navigation Agents: the Winning Entry of the 2021 iGibson Challenge 作者 :Naoki Yokoyama, Qian Luo 來源 :arXiv 時(shí)間 :2022 深度強(qiáng)化學(xué)習(xí)和可擴(kuò)展的真實(shí)感模擬的最新進(jìn)展使得用于各種視覺任務(wù)(包括導(dǎo)航)的具體人工智能日益成熟。然而,雖然在

    2024年02月14日
    瀏覽(22)
  • Tips for Deep Learning

    Tips for Deep Learning

    目錄 Recipe of Deep Learning ?Good Results on Training Data? New activation function Adaptive learning rate Good Results on Testing Data? Early Stopping Regularization Dropout 我們要做的第一件事是,提高model在training set上的正確率,然后要做的事是,提高model在testing set上的正確率。 這一部分主要講述如何在

    2024年02月05日
    瀏覽(24)
  • The Deep Learning AI for Environmental Monitoring——Deep

    作者:禪與計(jì)算機(jī)程序設(shè)計(jì)藝術(shù) 環(huán)境監(jiān)測(cè)是整個(gè)經(jīng)濟(jì)社會(huì)發(fā)展的一個(gè)重要環(huán)節(jié),環(huán)境數(shù)據(jù)是影響經(jīng)濟(jì)、金融、社會(huì)和政策走向的不可或缺的組成部分。目前,環(huán)境監(jiān)測(cè)主要依靠地面站(例如氣象臺(tái))或者衛(wèi)星遙感影像獲取的數(shù)據(jù)進(jìn)行實(shí)時(shí)監(jiān)測(cè),其精確度受到數(shù)據(jù)源和采集技術(shù)

    2024年02月08日
    瀏覽(24)
  • 論文翻譯——Test Selection for Deep Learning Systems

    論文翻譯——Test Selection for Deep Learning Systems

    Abstract 因?yàn)樯疃葘W(xué)習(xí)涉及到復(fù)雜并且大量的計(jì)算,所以對(duì)于深度學(xué)習(xí)的檢測(cè)十分困難。而且測(cè)試數(shù)據(jù)一般都只能人工選擇,并且只能一個(gè)一個(gè)標(biāo)注。這就是提出了一個(gè)問題,如果我們能夠自動(dòng)選擇候選數(shù)據(jù)去測(cè)試深度學(xué)習(xí)模型。最近的研究都是集中在定義衡量測(cè)試集徹底度的

    2024年02月08日
    瀏覽(19)
  • Lecture 8 Deep Learning for NLP: Recurrent Networks

    Lecture 8 Deep Learning for NLP: Recurrent Networks

    Problem of N-gram Language Model N-gram 語言模型的問題 Cen be implemented using counts with smoothing 可以用平滑計(jì)數(shù)實(shí)現(xiàn) Can be implemented using feed-forward neural networks 可以用前饋神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn) Problem: limited context 問題:上下文限制 E.g. Generate sentences using trigram model: 例如:使用 trigram 模型生成句子

    2024年02月09日
    瀏覽(45)
  • Deep Learning for 3D Point Clouds: A Survey

    Deep Learning for 3D Point Clouds: A Survey

    Guo Y, Wang H, Hu Q, et al. Deep learning for 3d point clouds: A survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020. 之前組會(huì)要分享的一篇綜述,太長了沒讀完,不知道啥時(shí)候能寫完。。 最近,點(diǎn)云學(xué)習(xí)因其在計(jì)算機(jī)視覺、自動(dòng)駕駛和機(jī)器人等許多領(lǐng)域的廣泛應(yīng)用而引起越來越多

    2024年02月05日
    瀏覽(20)
  • Deep Learning for Natural Language Processing in Python

    作者:禪與計(jì)算機(jī)程序設(shè)計(jì)藝術(shù) 在這篇文章中,我將會(huì)介紹一下基于深度學(xué)習(xí)的自然語言處理(NLP)模型的相關(guān)知識(shí)、術(shù)語及其核心算法原理和具體操作步驟。首先,我將會(huì)簡要介紹一下什么是NLP、為什么需要NLP、NLP所涉及到的領(lǐng)域等相關(guān)背景知識(shí)。隨后,我會(huì)對(duì)一些基本概

    2024年02月07日
    瀏覽(35)
  • Deep Learning for Natural Language Processing An Intro

    作者:禪與計(jì)算機(jī)程序設(shè)計(jì)藝術(shù) 深度學(xué)習(xí)的理論基礎(chǔ)、技術(shù)框架及最新進(jìn)展,以及自然語言處理領(lǐng)域的應(yīng)用前景,對(duì)于廣大從事自然語言處理研究和開發(fā)的同行來說都是一個(gè)重要的話題。近幾年,隨著深度學(xué)習(xí)技術(shù)的不斷推陳出新的熱潮,自然語言處理(NLP)也備受關(guān)注。

    2024年02月08日
    瀏覽(32)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包