前言
- 要弄清MAML怎么做,為什么這么做,就要看懂這兩張圖。
- 先說(shuō)MAML**在做什么?**它是打著Mate-Learing的旗號(hào)干的是few-shot multi-task Learning的事情。具體而言就是想訓(xùn)練一個(gè)模型能夠使用很少的新樣本,快速適應(yīng)新的任務(wù)。
定義問(wèn)題
- 我們定義一個(gè)模型
f
f
f, 輸入
x
x
x輸出
a
a
a。
-定義每一個(gè)Task - T T T包含一個(gè)損失函數(shù) L L L, 一個(gè)原始觀察 q ( x 1 ) q(x_1) q(x1?), 一個(gè)狀態(tài)轉(zhuǎn)移分布 q ( x 1 ∣ x t , a t ) q(x_1 | x_t,a_t) q(x1?∣xt?,at?)以及集長(zhǎng)度 H H H。在監(jiān)督任務(wù)中H=1(也就是說(shuō)當(dāng)前的a只和當(dāng)前的x有關(guān))。
元學(xué)習(xí)方法介紹
- 元學(xué)習(xí),被稱為“Learn to Learn”的方法。元學(xué)習(xí)希望獲取一個(gè)網(wǎng)絡(luò)(結(jié)構(gòu)+參數(shù)),滿足一定的預(yù)設(shè)要求。
- 在我們的元學(xué)習(xí)場(chǎng)景中,我們考慮了一個(gè)跨任務(wù)的分布 p ( T ) p(T) p(T),我們希望我們的模型能夠適應(yīng)這個(gè)分布。在 K -shot學(xué)習(xí)的設(shè)置中,模型被訓(xùn)練來(lái)學(xué)習(xí)一個(gè)新的任務(wù) T i T_i Ti?,這個(gè)任務(wù)是從 p ( T ) p(T) p(T) 中抽取的,只使用了從 q i q_i qi? 抽取的 K 個(gè)樣本,并且由 T i T_i Ti? 生成的反饋 L T i L_{T_i} LTi??。在元訓(xùn)練期間,從 p ( T ) p(T) p(T) 中抽取一個(gè)任務(wù) T i T_i Ti?,模型會(huì)用從 T i T_i Ti? 中抽取的 K 個(gè)樣本和相應(yīng)的損失 L T i L_{T_i} LTi??的反饋進(jìn)行訓(xùn)練,然后在來(lái)自 T i T_i Ti? 的新樣本上進(jìn)行測(cè)試。然后,通過(guò)考慮模型在新數(shù)據(jù)上的測(cè)試誤差更新參數(shù),來(lái)改進(jìn)模型 f f f。實(shí)際上,對(duì)抽樣的任務(wù) T i T_i Ti? 進(jìn)行的測(cè)試誤差充當(dāng)了元學(xué)習(xí)過(guò)程的訓(xùn)練錯(cuò)誤。在元訓(xùn)練結(jié)束時(shí),從 p ( T ) p(T) p(T) 中抽取新任務(wù),并通過(guò)模型從 K 個(gè)樣本中學(xué)習(xí)后的表現(xiàn)來(lái)衡量元能力。通常,在元訓(xùn)練期間保留用于元測(cè)試的任務(wù)。
A Model-Agnostic Meta-Learning Algorithm
-
給定一個(gè)初始的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)及參數(shù),使用針對(duì)同一領(lǐng)域的多個(gè)任務(wù)集作為樣本,對(duì)每個(gè)任務(wù)集分配這樣一個(gè)網(wǎng)絡(luò),不同的任務(wù)集對(duì)各自的網(wǎng)絡(luò)做一次loss計(jì)算和梯度更新,然后對(duì)所有更新之后的神經(jīng)網(wǎng)絡(luò)再計(jì)算一次loss,將這些loss綜合考慮起來(lái)作為一個(gè)新的loss,來(lái)更新那個(gè)最開(kāi)始的神經(jīng)網(wǎng)絡(luò),再將獲得到的網(wǎng)絡(luò)作為新的初始神經(jīng)網(wǎng)絡(luò),迭代這個(gè)過(guò)程?!米?/p>
-
這種方法背后的直覺(jué)是,一些內(nèi)部表示比其他表示更可轉(zhuǎn)移。The intuition behind this approach is that some internal representations are more transferrable than others.
-
實(shí)際上,我們的目標(biāo)是找到對(duì)任務(wù)變化最敏感的模型參數(shù),這樣當(dāng)改變梯度的方向,損失的小改變參數(shù)將產(chǎn)生大改進(jìn),如下圖。
-
我們定義一個(gè)模型表示為 f θ f_{\theta} fθ?。當(dāng)適應(yīng)新的任務(wù) T i T_i Ti?時(shí),模型參數(shù)從 θ \theta θ變?yōu)?span id="n5n3t3z" class="katex--inline"> θ i ′ \theta'_i θi′?.在我們的方法中,我們更新參數(shù)使用一個(gè)或多個(gè)任務(wù)T T i T_i Ti?梯度向量.
-
當(dāng)使用一個(gè)梯度進(jìn)行更新:
文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-674889.html
-
而元-目標(biāo)是:
-整個(gè)算法如下:文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-674889.html
到了這里,關(guān)于論文閱讀:Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!