国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting

這篇具有很好參考價(jià)值的文章主要介紹了【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

個(gè)人閱讀筆記,如有錯(cuò)誤歡迎指出

Arxiv 2019????????[1912.11464] Attack-Resistant Federated Learning with Residual-based Reweighting (arxiv.org)

問題:

????????聯(lián)邦學(xué)習(xí)容易受到后門攻擊

創(chuàng)新:

????????提出一種基于殘差的重新加權(quán)聚合算法

????????聚合算法將重復(fù)中值回歸和加權(quán)最小二乘中的加權(quán)方案相結(jié)合

方法:

【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting,論文筆記,論文閱讀,筆記,安全,人工智能,深度學(xué)習(xí)

????????1)用重復(fù)中值估計(jì)回歸線【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting,論文筆記,論文閱讀,筆記,安全,人工智能,深度學(xué)習(xí)

【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting,論文筆記,論文閱讀,筆記,安全,人工智能,深度學(xué)習(xí)

????????2)計(jì)算本地模型中第個(gè)參數(shù)的殘差,由于對(duì)于不同的參數(shù)不好比較,因此將標(biāo)準(zhǔn)化

【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting,論文筆記,論文閱讀,筆記,安全,人工智能,深度學(xué)習(xí)

????????3)參數(shù)置信度。其中是中的第個(gè)參數(shù),,,是超參數(shù)本文中定義為2,是置信空間用調(diào)整,?是中的第個(gè)對(duì)角矩陣

【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting,論文筆記,論文閱讀,筆記,安全,人工智能,深度學(xué)習(xí)

????????4)極值矯正。若存在非常大的值即使乘很小的權(quán)重也足以威脅到全局模型,引入閾值,若置信值低于\,則用下式矯正

【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting,論文筆記,論文閱讀,筆記,安全,人工智能,深度學(xué)習(xí)

????????5)本地模型權(quán)重。通過衡量每個(gè)參數(shù)的標(biāo)準(zhǔn)差進(jìn)行聚合

【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting,論文筆記,論文閱讀,筆記,安全,人工智能,深度學(xué)習(xí)

????????6)全局模型

【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting,論文筆記,論文閱讀,筆記,安全,人工智能,深度學(xué)習(xí)

????????整體算法思路:通過垂直距離(殘差)將每個(gè)參數(shù)重新加權(quán),然后通過累積每個(gè)局部模型中的參數(shù)置信度來估計(jì)每個(gè)局部模型的權(quán)重

【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting,論文筆記,論文閱讀,筆記,安全,人工智能,深度學(xué)習(xí)

實(shí)驗(yàn):

【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting,論文筆記,論文閱讀,筆記,安全,人工智能,深度學(xué)習(xí)

【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting,論文筆記,論文閱讀,筆記,安全,人工智能,深度學(xué)習(xí)

【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting,論文筆記,論文閱讀,筆記,安全,人工智能,深度學(xué)習(xí)

【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting,論文筆記,論文閱讀,筆記,安全,人工智能,深度學(xué)習(xí)

【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting,論文筆記,論文閱讀,筆記,安全,人工智能,深度學(xué)習(xí)

讀后感:

????????優(yōu)點(diǎn):

????????????????可以防御放大梯度的后門攻擊

????????????????可以防御標(biāo)簽翻轉(zhuǎn)的后門攻擊

????????局限性:

????????????????犧牲了一定的隱私,與安全聚合策略不兼容文章來源地址http://www.zghlxwxcb.cn/news/detail-552099.html

到了這里,關(guān)于【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L

    論文閱讀筆記—— AdvFilter: Predictive Perturbation-aware Filtering against Adversarial Attack via Multi-d L

    來源:ACM MM 2021 作者:Yihao Huang1, Qing Guo2?, Felix Juefei-Xu3, Lei Ma4, Weikai Miao1, Yang Liu2,5, Geguang Pu1 單位:1East China Normal University, China 2Nanyang Technological University, Singapore 3Alibaba Group, USA 4University of Alberta, Canada 5 Zhejiang Sci-Tech University, China 郵箱:Yihao Huang’s email: huangyihao22@gmail.com ;

    2024年02月01日
    瀏覽(52)
  • 【論文閱讀——Profit Allocation for Federated Learning】

    【論文閱讀——Profit Allocation for Federated Learning】

    由于更為嚴(yán)格的數(shù)據(jù)管理法規(guī),如《通用數(shù)據(jù)保護(hù)條例》(GDPR),傳統(tǒng)的機(jī)器學(xué)習(xí)服務(wù)生產(chǎn)模式正在轉(zhuǎn)向聯(lián)邦學(xué)習(xí)這一范式。聯(lián)邦學(xué)習(xí)允許多個(gè)數(shù)據(jù)提供者在其本地保留數(shù)據(jù)的同時(shí),協(xié)作訓(xùn)練一個(gè)共享模型。推動(dòng)聯(lián)邦學(xué)習(xí)實(shí)際應(yīng)用的關(guān)鍵在于如何將聯(lián)合模型產(chǎn)生的利潤(rùn)公平地

    2024年04月13日
    瀏覽(29)
  • 【論文閱讀】Feature Inference Attack on Shapley Values

    【論文閱讀】Feature Inference Attack on Shapley Values

    研究背景 近年來,解釋性機(jī)器學(xué)習(xí)逐漸成為一個(gè)熱門的研究領(lǐng)域。解釋性機(jī)器學(xué)習(xí)可以幫助我們理解機(jī)器學(xué)習(xí)模型是如何進(jìn)行預(yù)測(cè)的,它可以提高模型的可信度和可解釋性。Shapley值是一種解釋機(jī)器學(xué)習(xí)模型預(yù)測(cè)結(jié)果的方法,它可以計(jì)算每個(gè)特征對(duì)預(yù)測(cè)結(jié)果的貢獻(xiàn)程度,從而

    2024年02月15日
    瀏覽(24)
  • 論文閱讀——Imperceptible Adversarial Attack via Invertible Neural Networks

    論文閱讀——Imperceptible Adversarial Attack via Invertible Neural Networks

    作者:Zihan Chen, Ziyue Wang, Junjie Huang*, Wentao Zhao, Xiao Liu, Dejian Guan 解決的問題:雖然視覺不可感知性是對(duì)抗性示例的理想特性,但傳統(tǒng)的對(duì)抗性攻擊仍然會(huì)產(chǎn)生 可追蹤的對(duì)抗擾動(dòng)。 代碼:https://github.com/jjhuangcs/AdvINN 類型:黑盒 目標(biāo)攻擊, 作者利用可逆神經(jīng)網(wǎng)絡(luò)(AdvINN)方法進(jìn)行

    2024年02月12日
    瀏覽(40)
  • 論文閱讀——Adversarial Eigen Attack on Black-Box Models

    論文閱讀——Adversarial Eigen Attack on Black-Box Models

    作者:Linjun Zhou, Linjun Zhou 攻擊類別:黑盒(基于梯度信息),白盒模型的預(yù)訓(xùn)練模型可獲得,但訓(xùn)練數(shù)據(jù)和微調(diào)預(yù)訓(xùn)練模型的數(shù)據(jù)不可得(這意味著模型的網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)信息可以獲得)、目標(biāo)攻擊+非目標(biāo)攻擊 白盒+黑盒組合使用,白盒利用了中間表示,黑盒利用了輸出得

    2024年02月13日
    瀏覽(42)
  • 《Secure Analytics-Federated Learning and Secure Aggregation》論文閱讀

    《Secure Analytics-Federated Learning and Secure Aggregation》論文閱讀

    背景 機(jī)器學(xué)習(xí)模型對(duì)數(shù)據(jù)的分析具有很大的優(yōu)勢(shì),很多敏感數(shù)據(jù)分布在用戶各自的終端。若大規(guī)模收集用戶的敏感數(shù)據(jù)具有泄露的風(fēng)險(xiǎn)。 對(duì)于安全分析的一般背景就是認(rèn)為有n方有敏感數(shù)據(jù),并且不愿意分享他們的數(shù)據(jù),但可以分享聚合計(jì)算后的結(jié)果。 聯(lián)邦學(xué)習(xí)是一種訓(xùn)練數(shù)

    2024年02月07日
    瀏覽(20)
  • 論文閱讀-Federated-Unlearning-With-Momentum-Degradation

    論文閱讀-Federated-Unlearning-With-Momentum-Degradation

    論文閱讀-Federated Unlearning With Momentum Degradation 聯(lián)邦忘卻與動(dòng)量退化 Yian Zhao IEEE Internet of Things Journal 2023 年 10 月 2 日 CCF-C momentum degradation-MoDe 動(dòng)量退化 memory guidance-記憶引導(dǎo) knowledge erasure-知識(shí)擦除 Deep-learning neural network—DNN深度神經(jīng)網(wǎng)絡(luò) backdoor attacks -后門攻擊 degradation model-退

    2024年04月24日
    瀏覽(13)
  • 【論文閱讀】Untargeted Backdoor Attack Against Object Detection(針對(duì)目標(biāo)檢測(cè)的無目標(biāo)后門攻擊)

    論文題目: Untargeted Backdoor Attack Against Object Detection(針對(duì)目標(biāo)檢測(cè)的無目標(biāo)后門攻擊) 發(fā)表年份: 2023-ICASSP(CCF-B) 作者信息: Chengxiao Luo (清華大學(xué)深圳國(guó)際研究生院) Yiming Li(清華大學(xué)深圳國(guó)際研究生院) Yong Jiang(清華大學(xué)深圳國(guó)際研究生院,鵬程實(shí)驗(yàn)室人工智能研

    2024年02月09日
    瀏覽(26)
  • 【論文筆記 | 異步聯(lián)邦】Asynchronous Federated Optimization

    【論文筆記 | 異步聯(lián)邦】Asynchronous Federated Optimization

    Asynchronous Federated Optimization,OPT2020: 12th Annual Workshop on Optimization for Machine Learning,不屬于ccfa 任務(wù)激活不頻繁(比較難以達(dá)成條件):對(duì)于弱邊緣設(shè)備,學(xué)習(xí)任務(wù)只在設(shè)備空閑、充電、連接非計(jì)量網(wǎng)絡(luò)時(shí)執(zhí)行 通信不頻繁:邊緣設(shè)備和遠(yuǎn)程服務(wù)器之間的連接可能經(jīng)常不可用、緩

    2024年04月27日
    瀏覽(24)
  • 論文筆記--FEDERATED LEARNING: STRATEGIES FOR IMPROVING COMMUNICATION EFFICIENCY

    標(biāo)題:FEDERATED LEARNING: STRATEGIES FOR IMPROVING COMMUNICATION EFFICIENCY 作者:Jakub Konecny, H. Brendan McMahan, Felix X. Yu, Ananda Theertha Suresh, Dave Bacon 日期:2016 期刊:arxiv ??文章給出了一種聯(lián)邦學(xué)習(xí)(federated learning, FL)的新的方法,可以提升多終端之間的交流效率,從而支持多臺(tái)設(shè)備在不穩(wěn)定

    2024年02月15日
    瀏覽(35)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包