個(gè)人閱讀筆記,如有錯(cuò)誤歡迎指出
Arxiv 2019????????[1912.11464] Attack-Resistant Federated Learning with Residual-based Reweighting (arxiv.org)
問題:
????????聯(lián)邦學(xué)習(xí)容易受到后門攻擊
創(chuàng)新:
????????提出一種基于殘差的重新加權(quán)聚合算法
????????聚合算法將重復(fù)中值回歸和加權(quán)最小二乘中的加權(quán)方案相結(jié)合
方法:
????????1)用重復(fù)中值估計(jì)回歸線
????????2)計(jì)算本地模型中第個(gè)參數(shù)的殘差,由于對(duì)于不同的參數(shù)不好比較,因此將標(biāo)準(zhǔn)化
????????3)參數(shù)置信度。其中是中的第個(gè)參數(shù),,,是超參數(shù)本文中定義為2,是置信空間用調(diào)整,?是中的第個(gè)對(duì)角矩陣
????????4)極值矯正。若存在非常大的值即使乘很小的權(quán)重也足以威脅到全局模型,引入閾值,若置信值低于\,則用下式矯正
????????5)本地模型權(quán)重。通過衡量每個(gè)參數(shù)的標(biāo)準(zhǔn)差進(jìn)行聚合
????????6)全局模型
????????整體算法思路:通過垂直距離(殘差)將每個(gè)參數(shù)重新加權(quán),然后通過累積每個(gè)局部模型中的參數(shù)置信度來估計(jì)每個(gè)局部模型的權(quán)重
實(shí)驗(yàn):
讀后感:
????????優(yōu)點(diǎn):
????????????????可以防御放大梯度的后門攻擊
????????????????可以防御標(biāo)簽翻轉(zhuǎn)的后門攻擊
????????局限性:文章來源:http://www.zghlxwxcb.cn/news/detail-552099.html
????????????????犧牲了一定的隱私,與安全聚合策略不兼容文章來源地址http://www.zghlxwxcb.cn/news/detail-552099.html
到了這里,關(guān)于【論文閱讀筆記】Attack-Resistant Federated Learning with Residual-based Reweighting的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!