国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文筆記 】EOT算法:Synthesizing robust adversarial example

這篇具有很好參考價(jià)值的文章主要介紹了【論文筆記 】EOT算法:Synthesizing robust adversarial example。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

引言:

對于基于神經(jīng)網(wǎng)絡(luò)的分類器,對抗樣本是一種加入了微小擾動(dòng)的樣本,能夠讓分類器產(chǎn)生錯(cuò)誤的判斷從而識(shí)別失敗。傳統(tǒng)的二維對抗樣本通過打印等方式轉(zhuǎn)移導(dǎo)現(xiàn)實(shí)世界中時(shí),在有限的視角下能夠保持對抗性。但在復(fù)雜多變的實(shí)際應(yīng)用場景中,受光照、視角偏移和相機(jī)噪聲等因素限制,這些對抗樣本被相機(jī)捕捉到的形態(tài)已經(jīng)發(fā)生了變化,在輸入到分類器之前就已經(jīng)失去了對抗性。因此傳統(tǒng)方法生成的對抗樣本在現(xiàn)實(shí)世界中多數(shù)無法保持對抗性,難以起到穩(wěn)定的干擾效果。而此前的研究主要關(guān)注的是二維對抗樣本的生成,目前缺少一種魯棒的、能保持多視角對抗性的對抗樣本。學(xué)術(shù)界在三維對抗樣本方面的研究也有所欠缺。作者解決了傳統(tǒng)對抗樣本魯棒性不強(qiáng)的問題,證明了現(xiàn)實(shí)世界中3D對抗樣本的存在,首次提出了3D對抗樣本的合成算法,并用3D打印合成了第一個(gè)物理對抗對象。

方法:

首先,作者提出了EOT算法:

EOT算法的核心思想對每一個(gè)微小的對抗擾動(dòng)(即對抗輸入和原始輸入之間的距離)進(jìn)行建模,從而縮小對抗輸入與原始輸入之間的視覺差距來優(yōu)化對抗樣本。

在有目標(biāo)的白盒攻擊場景中,傳統(tǒng)的方法通過最大化目標(biāo)類yt在原圖像(一般將其表示為[ 0,1 ]中每個(gè)像素為d的向量)周圍的一個(gè)半徑為a的球上,目標(biāo)類的對數(shù)似然來優(yōu)化生成對抗樣本。

可表示為:

eot對抗樣本算法 3d,論文閱讀筆記,論文閱讀,筆記,算法,安全,計(jì)算機(jī)視覺,3d

而作者則選擇在這個(gè)優(yōu)化的過程中對每個(gè)微小的對抗擾動(dòng)進(jìn)行建模:eot對抗樣本算法 3d,論文閱讀筆記,論文閱讀,筆記,算法,安全,計(jì)算機(jī)視覺,3d

其中T表示轉(zhuǎn)換函數(shù)t的變換分布:分類器的輸入在經(jīng)過變換函數(shù)t處理后由x變?yōu)閠(x);而T則是對于可能影響對抗性的一些因素的建模:

對于2D對抗樣本,T包括通過加性因子重新縮放、旋轉(zhuǎn)、變亮或變暗、添加高斯噪聲和圖像的平移等;

對于3D對抗樣本,T包括對抗樣本的紋理,并將紋理映射到3D渲染中,以模擬光照、旋轉(zhuǎn)、平移和透視投影等功能。

由此,對抗樣本的生成可表示為:

eot對抗樣本算法 3d,論文閱讀筆記,論文閱讀,筆記,算法,安全,計(jì)算機(jī)視覺,3d

作者在其中采用隨機(jī)梯度下降的方法進(jìn)行優(yōu)化。其中,在梯度下降的每一步都對變換T進(jìn)行獨(dú)立的采樣,并通過變換T進(jìn)行微分。而為了更好地起到優(yōu)化的效果,作者的的在優(yōu)化目標(biāo)函數(shù)的過程中使用了 Lagrangian-relaxed(拉格朗日松弛)方法,同時(shí)使用LGB空間距離作為原始與輸出距離:

eot對抗樣本算法 3d,論文閱讀筆記,論文閱讀,筆記,算法,安全,計(jì)算機(jī)視覺,3d?

實(shí)驗(yàn):

作者在實(shí)驗(yàn)中使用了TensorFlow的標(biāo)準(zhǔn)預(yù)訓(xùn)練InceptionV3分類器作為測試模型,并隨機(jī)指定target類別,攻擊成功率為96.4%。

作者首先定量評估了使用EOT方法生成2D、3D和現(xiàn)實(shí)世界對抗樣本的有效性:將有效性量化定義為:

eot對抗樣本算法 3d,論文閱讀筆記,論文閱讀,筆記,算法,安全,計(jì)算機(jī)視覺,3d

即樣本被分類成目標(biāo)類的概率。

其中函數(shù)C(x,y)表示輸入x是否被分類為y類,即:

eot對抗樣本算法 3d,論文閱讀筆記,論文閱讀,筆記,算法,安全,計(jì)算機(jī)視覺,3d

有了量化的評估標(biāo)準(zhǔn)之后,作者通過實(shí)驗(yàn)來評估對抗樣本的有效性。

對于2D對抗樣本,作者使用的變換分布包括縮放、旋轉(zhuǎn)、改變亮度、添加高斯噪聲和平移,對1000張圖像隨機(jī)選擇目標(biāo)類進(jìn)行攻擊,平均對抗性為96.4%:

eot對抗樣本算法 3d,論文閱讀筆記,論文閱讀,筆記,算法,安全,計(jì)算機(jī)視覺,3d

eot對抗樣本算法 3d,論文閱讀筆記,論文閱讀,筆記,算法,安全,計(jì)算機(jī)視覺,3d

對于3D對抗樣本,作者通過對3D渲染的過程使用EOT算法來模擬變換,考慮了相機(jī)距離、橫向平移、物體旋轉(zhuǎn)、純色背景等變換分布,為10個(gè)3D模型各選擇了20個(gè)目標(biāo)類進(jìn)行攻擊,平均對抗性為83.4%:

eot對抗樣本算法 3d,論文閱讀筆記,論文閱讀,筆記,算法,安全,計(jì)算機(jī)視覺,3d

eot對抗樣本算法 3d,論文閱讀筆記,論文閱讀,筆記,算法,安全,計(jì)算機(jī)視覺,3d

對于現(xiàn)實(shí)世界的3D對抗樣本,作者在代表性的幾個(gè)變換分布上使用EOT算法,以盡量地近似所有變換分布的情況。除3D渲染的過程外,還考慮了照明效果、相機(jī)噪聲以及3D打印過程等變換。平均對抗性為94%:

eot對抗樣本算法 3d,論文閱讀筆記,論文閱讀,筆記,算法,安全,計(jì)算機(jī)視覺,3d

eot對抗樣本算法 3d,論文閱讀筆記,論文閱讀,筆記,算法,安全,計(jì)算機(jī)視覺,3d

eot對抗樣本算法 3d,論文閱讀筆記,論文閱讀,筆記,算法,安全,計(jì)算機(jī)視覺,3d

eot對抗樣本算法 3d,論文閱讀筆記,論文閱讀,筆記,算法,安全,計(jì)算機(jī)視覺,3d

作者通過實(shí)驗(yàn)證實(shí)了現(xiàn)實(shí)世界中3D對抗樣本的存在,展示了EOT算法的有效性。

文獻(xiàn)來源:

[1]Athalye A, Engstrom L, Ilyas A, et al. Synthesizing robust adversarial examples[C]//International conference on machine learning. PMLR, 2018: 284-293.文章來源地址http://www.zghlxwxcb.cn/news/detail-807961.html

到了這里,關(guān)于【論文筆記 】EOT算法:Synthesizing robust adversarial example的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Privacy-Preserving Byzantine-Robust Federated Learning via Blockchain Systems論文筆記

    Privacy-Preserving Byzantine-Robust Federated Learning via Blockchain Systems論文筆記

    總述:本文提出了一種PBFL的方案,可以用來驗(yàn)證用戶上傳的梯度信息(主要使用到的是余弦相似性),過濾惡意用戶的梯度;并且可以防止服務(wù)器的單點(diǎn)故障,利用區(qū)塊鏈?zhǔn)沟脜f(xié)議的執(zhí)行更加的透明。 本文的主要貢獻(xiàn):因?yàn)橹笆褂玫耐瑧B(tài)加密方案存在低效的問題(具體而

    2024年01月22日
    瀏覽(46)
  • 論文筆記:Privacy-Preserving Byzantine-Robust Federated Learning via Blockchain Systems

    論文筆記:Privacy-Preserving Byzantine-Robust Federated Learning via Blockchain Systems

    會(huì)議來源:IEEE TRANSACTIONS ON INFORMA TION FORENSICS AND SECURITY , VOL. 17, 2022 1.分布式機(jī)器學(xué)習(xí)在海量數(shù)據(jù)上實(shí)現(xiàn)了更大模型的訓(xùn)練,但仍然容易受到安全和隱私泄露的影響 2.保護(hù)隱私的聯(lián)邦學(xué)習(xí)方案之一是使用同態(tài)加密方案(如Paillier),對局部梯度進(jìn)行加密,但局部梯度難以計(jì)算和傳輸

    2024年02月04日
    瀏覽(19)
  • SAFEFL: MPC-friendly Framework for Private and Robust Federated Learning論文閱讀筆記

    SAFEFL: MPC-friendly Framework for Private and Robust Federated Learning論文閱讀筆記

    SAFEFL,這是一個(gè)利用安全多方計(jì)算 (MPC) 來評估聯(lián)邦學(xué)習(xí) (FL) 技術(shù)在防止隱私推斷和中毒攻擊方面的有效性和性能的框架。 傳統(tǒng)機(jī)器學(xué)習(xí)(ML):集中收集數(shù)據(jù)-隱私保護(hù)問題 privacy-preserving ML (PPML)采用的隱私保護(hù)技術(shù):安全多方計(jì)算,同態(tài)加密(運(yùn)算成本高) 聯(lián)邦學(xué)習(xí)(FL):

    2024年04月22日
    瀏覽(38)
  • 【論文閱讀筆記】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning

    【論文閱讀筆記】Local and Central Differential Privacy for Robustness and Privacy in Federated Learning

    個(gè)人閱讀筆記,如有錯(cuò)誤歡迎指出! 會(huì)議:NDSS 2022????????[2009.03561] Local and Central Differential Privacy for Robustness and Privacy in Federated Learning (arxiv.org) 問題: ????????盡管聯(lián)邦學(xué)習(xí)能在一定程度上保護(hù)數(shù)據(jù)隱私,但也存在隱私和魯棒性漏洞 主要貢獻(xiàn): ????????首次發(fā)現(xiàn)

    2024年02月01日
    瀏覽(23)
  • 【對抗攻擊論文筆記】對抗遷移性:Delving Into Transferable Adversarial Examples And Black-Box Attacks

    【對抗攻擊論文筆記】對抗遷移性:Delving Into Transferable Adversarial Examples And Black-Box Attacks

    發(fā)表于ICLR2017,論文地址:https://arxiv.org/pdf/1611.02770——深入研究可遷移的對抗樣本和黑盒攻擊 遷移性是指 一個(gè)模型生成的一些對抗樣本也可能被另一個(gè)模型錯(cuò)誤分類 。 這篇文章其實(shí)是基于 Transferability in Machine Learning: from Phenomena to Black-Box Attacks using Adversarial Samples 的改進(jìn)和

    2023年04月08日
    瀏覽(19)
  • 論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L

    論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L

    來源:ACM MM 2021 作者:Yihao Huang1, Qing Guo2?, Felix Juefei-Xu3, Lei Ma4, Weikai Miao1, Yang Liu2,5, Geguang Pu1 單位:1East China Normal University, China 2Nanyang Technological University, Singapore 3Alibaba Group, USA 4University of Alberta, Canada 5 Zhejiang Sci-Tech University, China 郵箱:Yihao Huang’s email: huangyihao22@gmail.com ;

    2024年02月01日
    瀏覽(52)
  • [論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking

    [論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking

    論文地址: https://arxiv.org/pdf/2303.10404.pdf 代碼: 未開源 目前是MOT20的第二名 這篇文章著力于解決 長時(shí) 跟蹤的問題. 當(dāng)前大多數(shù)方法只能依靠Re-ID特征來進(jìn)行長時(shí)跟蹤, 也就是軌跡長期丟失后的再識(shí)別. 然而, Re-ID特征并不總是有效的. 尤其是在擁擠和極度遮擋的情況下. 為此, 這篇

    2024年02月16日
    瀏覽(28)
  • GAN | 論文精讀 Generative Adversarial Nets

    GAN | 論文精讀 Generative Adversarial Nets

    提出一個(gè)GAN (Generative Adversarial Nets) (1)生成模型G(Generative),是用來得到分布的,在統(tǒng)計(jì)學(xué)眼里,整個(gè)世界是通過采樣不同的分布得到的,生成東西的話,目前就是要抓住一個(gè)數(shù)據(jù)的分布, (2)辨別模型D(D) ,他是來辨別你的樣本究竟是從真實(shí)世界來的呢,還是來自

    2024年02月11日
    瀏覽(18)
  • 【論文精度(李沐老師)】Generative Adversarial Nets

    【論文精度(李沐老師)】Generative Adversarial Nets

    我們提出了一個(gè)新的framework,通過一個(gè)對抗的過程來估計(jì)生成模型,其中會(huì)同時(shí)訓(xùn)練兩個(gè)模型: 生成模型G 來獲取整個(gè)數(shù)據(jù)的分布, 辨別模型D 來分辨數(shù)據(jù)是來自于訓(xùn)練樣本還是生成模型G。生成模型G的任務(wù)是盡量的讓辨別模型D犯錯(cuò)。這個(gè)framework對應(yīng)一個(gè)博弈論中雙人對抗游

    2023年04月14日
    瀏覽(18)
  • 論文閱讀《Robust Monocular Depth Estimation under Challenging Conditions》

    論文閱讀《Robust Monocular Depth Estimation under Challenging Conditions》

    論文地址:https://arxiv.org/pdf/2308.09711.pdf 源碼地址:https://github.com/md4all/md4all ??現(xiàn)有SOTA的單目估計(jì)方法在理想的環(huán)境下能得到滿意的結(jié)果,而在一些極端光照與天氣的情況下往往會(huì)失效。針對模型在極端條件下的表現(xiàn)不佳問題,文章提出一種用于解決這種安全問題的模型:

    2024年02月09日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包