国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

李宏毅2022機(jī)器學(xué)習(xí)HW10解析

這篇具有很好參考價(jià)值的文章主要介紹了李宏毅2022機(jī)器學(xué)習(xí)HW10解析。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

李宏毅2022機(jī)器學(xué)習(xí)HW10解析

準(zhǔn)備工作

作業(yè)十是黑箱攻擊(Blackbox Attack),完成作業(yè)需要助教代碼和數(shù)據(jù)集,運(yùn)行代碼過(guò)程中保持聯(lián)網(wǎng)可以自動(dòng)下載數(shù)據(jù)集,已經(jīng)有數(shù)據(jù)集的情況可關(guān)閉助教代碼中的下載數(shù)據(jù)部分。關(guān)注本公眾號(hào),可獲得代碼和數(shù)據(jù)集(文末有方法)。

提交地址

JudgeBoi:https://ml.ee.ntu.edu.tw/hw10/,非課程選修學(xué)生無(wú)法提交,有想討論溝通的同學(xué)可進(jìn)QQ群:156013866。以下為作業(yè)解析,詳細(xì)代碼見(jiàn)文末。

Simple ?Baseline(acc <=?0.70)

方法:FGSM方法。FGSM只對(duì)圖片進(jìn)行一次攻擊,對(duì)應(yīng)助教代碼中fgsm函數(shù),無(wú)需修改。代理模型(proxy models)是resnet110_cifar10,在被攻擊圖片中的精度benign_acc=0.95, benign_loss=0.22678。在攻擊中,使用gen_adv_examples函數(shù)調(diào)用fgsm函數(shù),精度降低:fgsm_acc=0.59, fgsm_loss=2.49272。

Medium Baseline (acc <= 0.50)

方法:I-FGSM方法 + Ensembel Attack。ifgsm方法相比與fgsm相比,使用了多次的fgsm循環(huán)攻擊,對(duì)應(yīng)代碼中的ifgsm函數(shù),無(wú)需修改。另外使用了Ensemble attack,該方法使用多個(gè)代理模型攻擊,這里我們需要改動(dòng)ensembelNet這個(gè)類中的forward函數(shù),在攻擊前測(cè)試的精度benign_acc=095, benign_loss=0.15440。在攻擊中,使用gen_adv_examples函數(shù)調(diào)用emsebel_model和ifgsm,精度降低明顯:ensemble_ifgsm_acc = 0.00, emsemble_ifgsm_loss=13.41106。

    def forward(self, x):        emsemble_logits = None        for i, m in enumerate(self.models):????????????emsemble_logits?=?m(x)?if?i?==?0?else?emsemble_logits?+?m(x)        return emsemble_logits/len(self.models)

Strong?Baseline (acc <= 0.30)

方法:MIFGSM + Ensemble Attack(pick right models)。mifgsm相比于ifgsm,加入了momentum,避免攻擊陷入local maxima(這個(gè)與optimizer里面momentum的原理類似),這里我們修改mifgsm函數(shù)。在medium baseline中,我們隨機(jī)挑選了一些代理模型,這樣很盲目,根據(jù)文章Query-Free Adversarial Transfer via Undertrained Surrogates(https://arxiv.org/abs/2007.00806)描述,可以選擇一些訓(xùn)練不充分的模型,訓(xùn)練不充分的意思包括兩方面:一是模型的訓(xùn)練epoch少,二是模型在驗(yàn)證集(val set)未達(dá)到最小loss。我們依據(jù)論文中的一個(gè)例子,使用https://github.com/kuangliu/pytorch-cifar中的訓(xùn)練方法,選擇resnet18模型,訓(xùn)練30個(gè)epoch(正常訓(xùn)練到達(dá)最好結(jié)果大約需要200個(gè)epoch),將其加入ensmbleNet中。攻擊后的精度和loss:ensemble_mifgsm_acc = 0.00, emsemble_mifgsm_loss = 12.25672??梢試L試更多的undertrain model來(lái)加強(qiáng)攻擊。???????

????????#?TODO:?Momentum?calculation        grad = x_adv.grad.detach()        grad = decay * momentum + grad/(grad.abs().sum() + 1e-8)        momentum = grad        x_adv = x_adv + alpha * grad.sign()

Boss?Baseline (acc <= 0.15)

方法:DIM-MIFGSM + Ensemble Attack(pick right models)。相對(duì)于strong baseline,我們將mifgsm替換為dim-mifgsm,后者在前者的基礎(chǔ)上,對(duì)被攻擊圖片加入了transform來(lái)避免overfitting。該技巧來(lái)自于文章Improving Transferability of Adversarial Examples with Input Diversity(https://arxiv.org/pdf/1803.06978.pdf),文章中的transform是先隨機(jī)的resize圖片,然后隨機(jī)padding圖片到原size,我們?cè)趍ifgsm函數(shù)的基礎(chǔ)上寫(xiě)dim_mifgsm函數(shù),后者添加的部分代碼如下。在攻擊中,使用gen_adv_examples函數(shù)調(diào)用emsebel_model和dim_mifgsm,攻擊后的精度和loss:ensemble_dmi_mifgsm_acc = 0.00, emsemble_dim_mifgsm_loss = 13.71190。???????

    if torch.rand(1).item() >= p:        #resize img to rnd X rnd        rnd = torch.randint(29, 33, (1,)).item()        x_adv = transforms.Resize((rnd, rnd))(x_adv)        #padding img to 32 X 32 with 0        left = torch.randint(0, 32 - rnd + 1, (1,)).item()        top = torch.randint(0, 32 - rnd + 1, (1,)).item()        right = 32 - rnd - left        bottom = 32 - rnd - top        x_adv = transforms.Pad([left, top, right, bottom])(x_adv)???????

作業(yè)十答案獲得方式:

  1. 關(guān)注微信公眾號(hào) “機(jī)器學(xué)習(xí)手藝人”?

  2. 后臺(tái)回復(fù)關(guān)鍵詞:202210

    ?文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-471887.html

到了這里,關(guān)于李宏毅2022機(jī)器學(xué)習(xí)HW10解析的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 李宏毅機(jī)器學(xué)習(xí) hw7 boss baseline分享

    李宏毅機(jī)器學(xué)習(xí) hw7 boss baseline分享

    使用bert來(lái)做問(wèn)答任務(wù) 答案是都是可以在 Document 找到的,輸入 Document 和 Query 輸出兩個(gè)數(shù)字分別表示答案在Document中的開(kāi)始和結(jié)束位置。 輸入格式如下: doc stride ,初始時(shí) Doc stride 等于 max_paragraph_len ,這樣會(huì)導(dǎo)致在測(cè)試時(shí)如果答案在邊界附近就會(huì)被切割到兩個(gè)不同的 window 中

    2024年02月06日
    瀏覽(17)
  • 2023李宏毅機(jī)器學(xué)習(xí)HW05樣例代碼中文注釋版

    2023李宏毅機(jī)器學(xué)習(xí)HW05樣例代碼中文注釋版

    這里只是 2023 李宏毅機(jī)器學(xué)習(xí) HW05 樣例代碼的中文注釋版的分享,下面的內(nèi)容絕大部分是樣例代碼,補(bǔ)充了小部分函數(shù)的功能解釋,沒(méi)有做函數(shù)功能上的修改,是 Simple baseline 版本。 notebook 代碼下載: [EN] [ZH] 進(jìn)階閱讀:李宏毅2023機(jī)器學(xué)習(xí)作業(yè)HW05解析和代碼分享 英譯中(繁體

    2024年02月05日
    瀏覽(27)
  • 李宏毅_機(jī)器學(xué)習(xí)_作業(yè)4(詳解)_HW4 Classify the speakers

    李宏毅_機(jī)器學(xué)習(xí)_作業(yè)4(詳解)_HW4 Classify the speakers

    本次作業(yè)需要學(xué)習(xí)完transformer后完成! 做語(yǔ)者辨識(shí)任務(wù),一共有600個(gè)語(yǔ)者,給了每一個(gè)語(yǔ)者的語(yǔ)音feature進(jìn)行訓(xùn)練,然后通過(guò)test_feature進(jìn)行語(yǔ)者辨識(shí)。(本質(zhì)上還是分類任務(wù)Classification) Simple(0.60824):run sample code and know how to use transformer Medium(0.70375):know how to adjust parameters of tra

    2024年02月01日
    瀏覽(20)
  • 李宏毅-機(jī)器學(xué)習(xí)hw4-self-attention結(jié)構(gòu)-辨別600個(gè)speaker的身份

    李宏毅-機(jī)器學(xué)習(xí)hw4-self-attention結(jié)構(gòu)-辨別600個(gè)speaker的身份

    一、慢慢分析+學(xué)習(xí)pytorch中的各個(gè)模塊的參數(shù)含義、使用方法、功能: 1.encoder編碼器中的nhead參數(shù): self.encoder_layer = nn.TransformerEncoderLayer( d_model=d_model, dim_feedforward=256, nhead=2) 所以說(shuō),這個(gè)nhead的意思,就是有window窗口的大小,也就是一個(gè)b由幾個(gè)a得到 2.tensor.permute改變維度的用

    2024年02月09日
    瀏覽(28)
  • 機(jī)器學(xué)習(xí)和深度學(xué)習(xí)-- 李宏毅(筆記與個(gè)人理解)Day10

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)-- 李宏毅(筆記與個(gè)人理解)Day10

    這節(jié)課主要介紹機(jī)器學(xué)習(xí)和深度學(xué)習(xí)任務(wù)中常見(jiàn)的問(wèn)題分類以及相應(yīng)的解決之道 這張圖總體的概述了一個(gè)任務(wù)中的大小坎坷,不認(rèn)得英文? 去Google吧~ training Loss 不夠的case Loss on Testing data over fitting 為什么over fitting 留到下下周哦~~ 期待 solve CNN卷積神經(jīng)網(wǎng)絡(luò) Bias-Conplexiy Trade

    2024年04月17日
    瀏覽(26)
  • 【李宏毅】HW12

    【李宏毅】HW12

    在這個(gè)HW中,你可以自己實(shí)現(xiàn)一些深度強(qiáng)化學(xué)習(xí)方法: 1、策略梯度Policy Gradient 2、Actor-Critic 這個(gè)HW的環(huán)境是OpenAI gym的月球著陸器。希望這個(gè)月球著陸器落在兩個(gè)旗子中間。 什么是月球著陸器? “LunarLander-v2”是模擬飛行器在月球表面著陸時(shí)的情況。 這項(xiàng)任務(wù)是使飛機(jī)能夠“

    2024年02月10日
    瀏覽(17)
  • 李宏毅-21-hw3:對(duì)11種食物進(jìn)行分類-CNN

    李宏毅-21-hw3:對(duì)11種食物進(jìn)行分類-CNN

    一、代碼慢慢閱讀理解+總結(jié)內(nèi)化: 1.關(guān)于torch.nn.covd2d()的參數(shù)含義、具體用法、功能: (1)參數(shù)含義: 注意,里面的“padding”參數(shù):《both》side所以是上下左右《四》邊都會(huì)加一個(gè)padding數(shù)量的0列: 證明如下: 運(yùn)行結(jié)果:torch.Size([3, 4, 5, 4] (2)具體用法: 輸入:x[ batch_size,

    2024年02月09日
    瀏覽(23)
  • 機(jī)器學(xué)習(xí)李宏毅學(xué)習(xí)筆記39

    機(jī)器學(xué)習(xí)李宏毅學(xué)習(xí)筆記39

    大模型+大資料 大模型的頓悟時(shí)刻 隨數(shù)據(jù)量增加,模型可以從量變達(dá)到質(zhì)變,從某一刻開(kāi)始突然學(xué)會(huì)東西。 當(dāng)成為大模型時(shí),分?jǐn)?shù)會(huì)從0,0突然變成100,完成“頓悟”. 橫軸表示分布中產(chǎn)生答案的概率(信心分?jǐn)?shù)),縱軸表示答案正確的概率。可以發(fā)現(xiàn)小模型的信心分?jǐn)?shù)跟答案

    2024年02月14日
    瀏覽(25)
  • 機(jī)器學(xué)習(xí)李宏毅學(xué)習(xí)筆記33

    機(jī)器學(xué)習(xí)李宏毅學(xué)習(xí)筆記33

    神經(jīng)網(wǎng)絡(luò)壓縮(一) 類神經(jīng)網(wǎng)絡(luò)剪枝(pruning) 簡(jiǎn)化模型,用比較少的參數(shù),但讓效能差不多,這就是network compression這件事。有些情況下需要把模型用在resource constrain(資源有限)的情況下,比如說(shuō)跑在智能手表上、小型無(wú)人機(jī)上等等。只有比較少的內(nèi)存和計(jì)算能力,這時(shí)就

    2024年02月11日
    瀏覽(20)
  • 機(jī)器學(xué)習(xí)HW15元學(xué)習(xí)

    機(jī)器學(xué)習(xí)HW15元學(xué)習(xí)

    任務(wù)對(duì)象是Omniglot數(shù)據(jù)集上的few-shot classification任務(wù),內(nèi)容是利用元學(xué)習(xí)找到好的初始化參數(shù)。 The Omniglot dataset Omniglot數(shù)據(jù)集-背景集: 30個(gè)字母 -評(píng)估集: 20個(gè)字母 問(wèn)題設(shè)置: 5-way 1-shot classification Training MAML on Omniglot classification task. Training / validation set:30 alphabets multiple charac

    2024年02月16日
    瀏覽(18)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包