国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文閱讀:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks

這篇具有很好參考價(jià)值的文章主要介紹了論文閱讀:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

前言

  • 要弄清MAML怎么做,為什么這么做,就要看懂這兩張圖。
  • 先說(shuō)MAML**在做什么?**它是打著Mate-Learing的旗號(hào)干的是few-shot multi-task Learning的事情。具體而言就是想訓(xùn)練一個(gè)模型能夠使用很少的新樣本,快速適應(yīng)新的任務(wù)。

定義問(wèn)題

  • 我們定義一個(gè)模型 f f f, 輸入 x x x輸出 a a a。
    -定義每一個(gè)Task - T T T包含一個(gè)損失函數(shù) L L L, 一個(gè)原始觀察 q ( x 1 ) q(x_1) q(x1?), 一個(gè)狀態(tài)轉(zhuǎn)移分布 q ( x 1 ∣ x t , a t ) q(x_1 | x_t,a_t) q(x1?xt?,at?)以及集長(zhǎng)度 H H H。在監(jiān)督任務(wù)中H=1(也就是說(shuō)當(dāng)前的a只和當(dāng)前的x有關(guān))。
    論文閱讀:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks,論文閱讀

元學(xué)習(xí)方法介紹

  • 元學(xué)習(xí),被稱為“Learn to Learn”的方法。元學(xué)習(xí)希望獲取一個(gè)網(wǎng)絡(luò)(結(jié)構(gòu)+參數(shù)),滿足一定的預(yù)設(shè)要求。
  • 在我們的元學(xué)習(xí)場(chǎng)景中,我們考慮了一個(gè)跨任務(wù)的分布 p ( T ) p(T) p(T),我們希望我們的模型能夠適應(yīng)這個(gè)分布。在 K -shot學(xué)習(xí)的設(shè)置中,模型被訓(xùn)練來(lái)學(xué)習(xí)一個(gè)新的任務(wù) T i T_i Ti?,這個(gè)任務(wù)是從 p ( T ) p(T) p(T) 中抽取的,只使用了從 q i q_i qi? 抽取的 K 個(gè)樣本,并且由 T i T_i Ti? 生成的反饋 L T i L_{T_i} LTi??。在元訓(xùn)練期間,從 p ( T ) p(T) p(T) 中抽取一個(gè)任務(wù) T i T_i Ti?,模型會(huì)用從 T i T_i Ti? 中抽取的 K 個(gè)樣本和相應(yīng)的損失 L T i L_{T_i} LTi??的反饋進(jìn)行訓(xùn)練,然后在來(lái)自 T i T_i Ti? 的新樣本上進(jìn)行測(cè)試。然后,通過(guò)考慮模型在新數(shù)據(jù)上的測(cè)試誤差更新參數(shù),來(lái)改進(jìn)模型 f f f。實(shí)際上,對(duì)抽樣的任務(wù) T i T_i Ti? 進(jìn)行的測(cè)試誤差充當(dāng)了元學(xué)習(xí)過(guò)程的訓(xùn)練錯(cuò)誤。在元訓(xùn)練結(jié)束時(shí),從 p ( T ) p(T) p(T) 中抽取新任務(wù),并通過(guò)模型從 K 個(gè)樣本中學(xué)習(xí)后的表現(xiàn)來(lái)衡量元能力。通常,在元訓(xùn)練期間保留用于元測(cè)試的任務(wù)。

A Model-Agnostic Meta-Learning Algorithm

  • 給定一個(gè)初始的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)及參數(shù),使用針對(duì)同一領(lǐng)域的多個(gè)任務(wù)集作為樣本,對(duì)每個(gè)任務(wù)集分配這樣一個(gè)網(wǎng)絡(luò),不同的任務(wù)集對(duì)各自的網(wǎng)絡(luò)做一次loss計(jì)算和梯度更新,然后對(duì)所有更新之后的神經(jīng)網(wǎng)絡(luò)再計(jì)算一次loss,將這些loss綜合考慮起來(lái)作為一個(gè)新的loss,來(lái)更新那個(gè)最開(kāi)始的神經(jīng)網(wǎng)絡(luò),再將獲得到的網(wǎng)絡(luò)作為新的初始神經(jīng)網(wǎng)絡(luò),迭代這個(gè)過(guò)程?!米?/p>

  • 這種方法背后的直覺(jué)是,一些內(nèi)部表示比其他表示更可轉(zhuǎn)移。The intuition behind this approach is that some internal representations are more transferrable than others.

  • 實(shí)際上,我們的目標(biāo)是找到對(duì)任務(wù)變化最敏感的模型參數(shù),這樣當(dāng)改變梯度的方向,損失的小改變參數(shù)將產(chǎn)生大改進(jìn),如下圖。
    論文閱讀:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks,論文閱讀

  • 我們定義一個(gè)模型表示為 f θ f_{\theta} fθ?。當(dāng)適應(yīng)新的任務(wù) T i T_i Ti?時(shí),模型參數(shù)從 θ \theta θ變?yōu)?span id="n5n3t3z" class="katex--inline"> θ i ′ \theta'_i θi?.在我們的方法中,我們更新參數(shù)使用一個(gè)或多個(gè)任務(wù)T T i T_i Ti?梯度向量.

  • 當(dāng)使用一個(gè)梯度進(jìn)行更新:
    論文閱讀:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks,論文閱讀

  • 而元-目標(biāo)是:
    論文閱讀:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks,論文閱讀
    -整個(gè)算法如下:
    論文閱讀:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks,論文閱讀文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-674889.html

到了這里,關(guān)于論文閱讀:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【論文閱讀筆記】Detecting AI Trojans Using Meta Neural Analysis

    【論文閱讀筆記】Detecting AI Trojans Using Meta Neural Analysis

    個(gè)人閱讀筆記,如有錯(cuò)誤歡迎指出! 會(huì)議:2021 SP????????Detecting AI Trojans Using Meta Neural Analysis | IEEE Conference Publication | IEEE Xplore 問(wèn)題: ????????當(dāng)前防御方法存在一些難以實(shí)現(xiàn)的假設(shè),或者要求直接訪問(wèn)訓(xùn)練模型,難以在實(shí)踐中應(yīng)用。 創(chuàng)新: ????????通過(guò)元分類器

    2024年01月23日
    瀏覽(34)
  • ChatGLM基座:GLM(General Language Model)論文閱讀筆記

    ChatGLM基座:GLM(General Language Model)論文閱讀筆記

    現(xiàn)在有很多Pretrain model 的架構(gòu), 如Bert、GPT、T5等,但是當(dāng)時(shí)沒(méi)有一種模型能在NLU、有條件文本生成、無(wú)條件文本生成都有很好的表現(xiàn)。 一般預(yù)訓(xùn)練模型架構(gòu)分為三種:自回歸(GPT系列)、自編碼(Bert系列)、編碼器-解碼器(T5)。 作者概述了它們目前存在的問(wèn)題·: GPT:?jiǎn)?/p>

    2024年02月02日
    瀏覽(30)
  • 【論文閱讀】 Model Sparsity Can Simplify Machine Unlearning

    【論文閱讀】 Model Sparsity Can Simplify Machine Unlearning

    Machine Unlearning(MU)是指出于對(duì)數(shù)據(jù)隱私保護(hù)的目的以及對(duì)\\\"RTBF\\\"(right to be forgotten)等數(shù)據(jù)保護(hù)方案的響應(yīng),而提出的一種數(shù)據(jù)遺忘的方法。在現(xiàn)實(shí)中,用戶有權(quán)請(qǐng)求數(shù)據(jù)收集者刪除其個(gè)人數(shù)據(jù),但是僅將用戶數(shù)據(jù)從數(shù)據(jù)集中刪除是不夠的。 原因:對(duì)model的攻擊,比如成員推

    2024年02月12日
    瀏覽(39)
  • 論文閱讀 - Learning Human Interactions with the Influence Model

    論文閱讀 - Learning Human Interactions with the Influence Model

    NIPS\\\'01 早期模型 要求知識(shí)背景: 似然函數(shù),極大似然估計(jì)、HMM、期望最大化 目錄 1 Introduction 2 The Facilitator Room 3 T h e I n f l u e n c e M o d e l 3 . 1 ( R e ) i n t r o d u c i n g t h e I n f l u e n c e M o d e l 3 . 2 L e a r n i n g f o r t h e I n f l u e n c e M o d e l 3. 2. 1 期望——影響力最大化模型 3

    2024年02月07日
    瀏覽(20)
  • 論文閱讀:TinySAM: Pushing the Envelope for Efficient Segment Anything Model-文章內(nèi)容閱讀

    論文閱讀:TinySAM: Pushing the Envelope for Efficient Segment Anything Model-文章內(nèi)容閱讀

    論文標(biāo)題: TinySAM: 極致高效的分割一切模型 論文地址:https://arxiv.org/pdf/2312.13789.pdf 代碼地址(pytorch):https://github.com/xinghaochen/TinySAM 詳細(xì)論文解讀:TinySAM:極致高效壓縮,手機(jī)就能實(shí)時(shí)跑的分割一切模型 - 知乎 (zhihu.com)? 目錄 文章內(nèi)容解析 ?概括 文章的觀點(diǎn) 技術(shù)創(chuàng)新解

    2024年01月17日
    瀏覽(24)
  • 論文閱讀:Diffusion Model-Based Image Editing: A Survey

    論文閱讀:Diffusion Model-Based Image Editing: A Survey

    論文鏈接 GitHub倉(cāng)庫(kù) 這篇文章是一篇基于擴(kuò)散模型(Diffusion Model)的圖片編輯(image editing)方法綜述。作者從多個(gè)方面對(duì)當(dāng)前的方法進(jìn)行分類和分析,包括學(xué)習(xí)策略、用戶輸入、和適用的任務(wù)等。為了進(jìn)一步評(píng)估文本引導(dǎo)的圖片編輯算法,作者提出了一個(gè)新的基準(zhǔn),EditEval,

    2024年04月10日
    瀏覽(26)
  • 論文閱讀--EFFICIENT OFFLINE POLICY OPTIMIZATION WITH A LEARNED MODEL

    論文閱讀--EFFICIENT OFFLINE POLICY OPTIMIZATION WITH A LEARNED MODEL

    作者:Zichen Liu,?Siyi Li,?Wee Sun Lee,?Shuicheng YAN,?Zhongwen Xu 論文鏈接:Efficient Offline Policy Optimization with a Learned Model | OpenReview 發(fā)表時(shí)間:? ICLR? ?2023年1月21日? 代碼鏈接:https://github.com/sail-sg/rosmo MuZero的離線版本算法(MuZero Unplugged)為基于日志數(shù)據(jù)的離線策略學(xué)習(xí)提供了一種很

    2024年02月03日
    瀏覽(22)
  • Feature Prediction Diffusion Model for Video Anomaly Detection 論文閱讀

    Feature Prediction Diffusion Model for Video Anomaly Detection 論文閱讀

    文章標(biāo)題:Feature Prediction Diffusion Model for Video Anomaly Detection 文章信息: 發(fā)表于:ICCV 2023 原文鏈接:https://openaccess.thecvf.com/content/ICCV2023/papers/Yan_Feature_Prediction_Diffusion_Model_for_Video_Anomaly_Detection_ICCV_2023_paper.pdf 源代碼:https://github.com/daidaidouer/FPDM 在視頻異常檢測(cè)是一個(gè)重要的研

    2024年01月17日
    瀏覽(27)
  • 論文閱讀《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》

    論文閱讀《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》

    就上一篇博客如何寫(xiě)論文、讀(分享匯報(bào))論文,在《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》進(jìn)行實(shí)踐。 《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》是一篇由Mingxing Tan和Quoc V. Le等人于2019年提出的論文,主要關(guān)注卷積神經(jīng)網(wǎng)絡(luò)(CNN)的模型縮

    2024年02月03日
    瀏覽(24)
  • 《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》論文閱讀

    《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》論文閱讀

    文章地址: https://link.springer.com/chapter/10.1007/978-3-030-60450-9_52 ??在這篇文章中作者提出了一個(gè)繼承性的序列標(biāo)注模型( hierarchical sequence labeling model, HSLM)以端到端的方式識(shí)別文本語(yǔ)句中所含有的方面級(jí)情感三元組(ASTE)。該模型主要有三個(gè)部分組成:方面級(jí)序列標(biāo)注模塊、

    2024年01月16日
    瀏覽(25)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包