国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介

這篇具有很好參考價(jià)值的文章主要介紹了聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

1 聯(lián)邦學(xué)習(xí)提出的背景

在大多數(shù)情況下,數(shù)據(jù)分散的保存在各個(gè)企業(yè)手中,而各個(gè)企業(yè)希望在不公開自己數(shù)據(jù)的情況下,聯(lián)合其他企業(yè)(利用各個(gè)企業(yè)所持有的數(shù)據(jù))一起訓(xùn)練一個(gè)模型,該模型能夠幫助企業(yè)獲取更大的利益。

對(duì)于收集零散的數(shù)據(jù),傳統(tǒng)的方法是通過搭建一個(gè)數(shù)據(jù)中心,在數(shù)據(jù)中心對(duì)模型進(jìn)行訓(xùn)練,但隨著越來越多的法律限制加上數(shù)據(jù)擁有者不愿意透露自己的數(shù)據(jù),這種方法已經(jīng)漸漸行不通了。

2 聯(lián)邦學(xué)習(xí)的介紹

定義:聯(lián)邦學(xué)習(xí)(federated learning),全稱聯(lián)邦機(jī)器學(xué)習(xí)(federated machine learning),為了解決聯(lián)合訓(xùn)練模型時(shí)的隱私問題,提出的一種方法:讓各個(gè)企業(yè)自己進(jìn)行模型的訓(xùn)練,各個(gè)企業(yè)在完成模型的訓(xùn)練之后,將各自模型的參數(shù)上傳至一個(gè)中心服務(wù)器(也可以是點(diǎn)對(duì)點(diǎn)),中心服務(wù)器結(jié)合各個(gè)企業(yè)的參數(shù)(可以上傳梯度,也可以是自己更新后的參數(shù)),重新擬定新的參數(shù)(例如通過加權(quán)平均,這一步叫做聯(lián)邦聚合),將新的參數(shù)下發(fā)至各個(gè)企業(yè),企業(yè)將新參數(shù)部署到模型上,從而繼續(xù)新的訓(xùn)練,這個(gè)過程可以進(jìn)行反復(fù)的迭代,直到模型收斂,或者滿足其他的條件。
聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介
聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介
使用聯(lián)邦學(xué)習(xí)模型的效果會(huì)比直接將數(shù)據(jù)集中起來進(jìn)行訓(xùn)練要差,這樣的效果損失(但實(shí)際情況下可能并沒有損失,數(shù)據(jù)丟失可能類似于做了正則,效果可能反而會(huì)提升)換取了隱私的保護(hù),是可以接受的。

3 聯(lián)邦學(xué)習(xí)的分類

為了更好的理解聯(lián)邦學(xué)習(xí)的分類,首先對(duì)數(shù)據(jù)進(jìn)行定義:

各個(gè)企業(yè)擁有的數(shù)據(jù)可以看成是一張表格,表格的每一行是一個(gè)帶有多個(gè)特征(features)以及標(biāo)簽(label)的樣本,每一列是一個(gè)特征或者標(biāo)簽,例如下圖可以是某企業(yè)整理的各地房?jī)r(jià)數(shù)據(jù):
聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介
橫向聯(lián)邦學(xué)習(xí)、縱向聯(lián)邦學(xué)習(xí)、聯(lián)邦遷移學(xué)習(xí)分類的依據(jù)是各個(gè)參與方數(shù)據(jù)相似情況,而聯(lián)邦強(qiáng)化學(xué)習(xí)的重點(diǎn)是基于各方環(huán)境進(jìn)行決策(take action)。

3.1 橫向聯(lián)邦學(xué)習(xí)

橫向聯(lián)邦學(xué)習(xí)(Horizontal Federated Learning)指的是各方擁有的數(shù)據(jù)的特征(features)是基本一致的也都擁有各自的標(biāo)簽(label),如果將各方的數(shù)據(jù)集中成一個(gè)中心體,各方擁有的則是中心體的不同樣本(橫向指的是對(duì)中心體進(jìn)行橫向劃分)。
聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介
橫向聯(lián)邦學(xué)習(xí)(帶有中心服務(wù)器)的過程可以概括為下圖:
聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介

3.2 縱向聯(lián)邦學(xué)習(xí)

縱向聯(lián)邦學(xué)習(xí)(Vertical Federated Learning)指的是各方擁有的數(shù)據(jù)有著很多不同的特征,但是可能會(huì)有許多相同的樣本個(gè)體(例如同一個(gè)人在銀行和保險(xiǎn)公司的信息),同樣將數(shù)據(jù)集中成一個(gè)中心體的話,各方擁有的是樣本的不同屬性(縱向指的是對(duì)中心體進(jìn)行縱向劃分。
聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介
縱向聯(lián)邦學(xué)習(xí)實(shí)際上只有一方擁有標(biāo)簽,通過縱向聯(lián)邦學(xué)習(xí)對(duì)相交數(shù)據(jù)進(jìn)行訓(xùn)練。

縱向聯(lián)邦學(xué)習(xí)的過程要稍微復(fù)雜一些,首先需要進(jìn)行的是數(shù)據(jù)的對(duì)齊,由于不能泄漏數(shù)據(jù),是將加密后的數(shù)據(jù)進(jìn)行對(duì)齊,如下圖所示:
聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介
對(duì)齊后的數(shù)據(jù)大致如下(對(duì)其操作只會(huì)獲取兩個(gè)數(shù)據(jù)中相交的樣本,下圖中即U1和U2:
聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介
由于只有一方擁有標(biāo)簽,但是雙方(以兩個(gè)參與方為例)進(jìn)行了預(yù)測(cè),這里將損失函數(shù)重新定義:
L = 1 2 ∑ ( y A ( i ) + y B ( i ) ? y ) 2 L=\frac 1 2 \sum(y_A^{(i)}+y_B^{(i)}-y)^2 L=21?(yA(i)?+yB(i)??y)2
而各個(gè)模型擁有的參數(shù)只有自己涉及特征的參數(shù),以上面的例子為例,也就是:
y A ( U 1 ) = w 3 X 3 + w 4 X 4 + w 5 X 5 y B ( U 1 ) = w 1 X 1 + w 2 X 2 \begin{aligned} &y_A^{(U_1)} = w_3X_3+w_4X_4+w_5X_5\\ &y_B^{(U_1)} = w_1X_1+w_2X_2 \end{aligned} ?yA(U1?)?=w3?X3?+w4?X4?+w5?X5?yB(U1?)?=w1?X1?+w2?X2??
這里只是簡(jiǎn)單舉例,實(shí)際上是以矩陣的形式進(jìn)行,同時(shí)會(huì)包含多個(gè)隱藏層。

這也就表示不管是在訓(xùn)練還是在預(yù)測(cè)的時(shí)候,都需要參與方進(jìn)行協(xié)調(diào),進(jìn)行數(shù)據(jù)的交換(參與方需要各自計(jì)算自己的預(yù)測(cè)值與梯度將結(jié)果發(fā)送給中心服務(wù)器進(jìn)行聚合)。

3.3 聯(lián)邦遷移學(xué)習(xí)

聯(lián)邦遷移學(xué)習(xí)(Federated Transfer Learning)指的是,參與方數(shù)據(jù)的重疊很少的情況(產(chǎn)生數(shù)據(jù)的人不同,數(shù)據(jù)的特征也大不相同),將數(shù)據(jù)題整合成中心體的話,會(huì)有大量的位置是空白信息,而各個(gè)參與方近似擁有的中心體的獨(dú)立劃分。
聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介
我們定義如下參數(shù):

  • ? \phi ?:分類函數(shù),作用于 u i B u_i^B uiB?
  • D c D_c Dc?:圖中紅色方框;
  • D A B D_{AB} DAB?:圖中藍(lán)色方框。

聯(lián)邦遷移學(xué)習(xí)中只有一方擁有標(biāo)簽,通過聯(lián)邦遷移學(xué)習(xí)可以利用相交的數(shù)據(jù)給沒有標(biāo)簽的一方數(shù)據(jù)打上標(biāo)簽。

一個(gè)簡(jiǎn)單的模型如下圖所示:
聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介
模型的損失函數(shù)(不考慮正則):
L = L 1 + γ L 2 L 1 = ∑ i N c l o g ( 1 + e ? y i ? ( u i B ) ) L 2 = ∑ i N A B ∣ ∣ u i A ? u i B ∣ ∣ F 2 \begin{aligned} &L=L_1+\gamma L_2\\ &L_1=\sum_i^{N_c}log(1+e^{-y_i\phi(u_i^B)})\\ &L_2=\sum_i^{N_{AB}}||u_i^A-u_i^B||^2_F \end{aligned} ?L=L1?+γL2?L1?=iNc??log(1+e?yi??(uiB?))L2?=iNAB??uiA??uiB?F2??
上面的公式表表名我們希望最小化兩部分(以二分類問題為例標(biāo)簽取值為-1和1):

  • L 1 L_1 L1?:代表與真實(shí)標(biāo)簽的接近程度,當(dāng) y i = 1 y_i=1 yi?=1時(shí)要是上式最小 ? ( u i B ) \phi(u_i^B) ?(uiB?)應(yīng)該盡可能接近 1 1 1,當(dāng) y i = ? 1 y_i=-1 yi?=?1時(shí)則應(yīng)該盡可能接近 ? 1 -1 ?1;
  • L 2 L_2 L2?:代表兩個(gè)模型representation的相似程度,應(yīng)為訓(xùn)練兩個(gè)模型的訓(xùn)練數(shù)標(biāo)簽是相同的,所以我們希望兩個(gè)特征表示(representation)盡可能相似。

3.4 聯(lián)邦強(qiáng)化學(xué)習(xí)

聯(lián)邦強(qiáng)化學(xué)習(xí)(Federated Reinforcement Learning)指的是將強(qiáng)化學(xué)習(xí)與聯(lián)邦學(xué)習(xí)進(jìn)行結(jié)合,聯(lián)幫強(qiáng)化學(xué)習(xí)分為縱向和橫向兩種,定義與之前類似,橫向聯(lián)邦強(qiáng)化學(xué)習(xí)(Horizontal Federated Reinforcement Learning)的簡(jiǎn)單模型如下:
聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介
上圖中,各自參與方根據(jù)自己的環(huán)境進(jìn)行訓(xùn)練,訓(xùn)練出來的模型上傳到中央服務(wù)器進(jìn)行聚合后,服務(wù)器再下發(fā)模型繼續(xù)進(jìn)行訓(xùn)練。

縱向聯(lián)邦強(qiáng)化學(xué)習(xí)(Vertical Federated Reinforcement Learning)的簡(jiǎn)單模型如下(圖中的虛線表示可以不存在):
聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介
在上圖的過程與橫向聯(lián)邦強(qiáng)化學(xué)習(xí)的過程類似。

4 聯(lián)邦學(xué)習(xí)與分布式機(jī)器學(xué)習(xí)

聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介
個(gè)人認(rèn)為聯(lián)邦學(xué)習(xí)實(shí)際上是分布式機(jī)器學(xué)習(xí)的一種變體(variant),傳統(tǒng)的分布式機(jī)器學(xué)習(xí)(也叫面向拓展的分布式機(jī)器學(xué)習(xí))關(guān)注的是在硬件資源不夠的情況下,如何利用分布式集群對(duì)一個(gè)龐大的模型進(jìn)行訓(xùn)練,而聯(lián)邦學(xué)習(xí)是,數(shù)據(jù)本身就在各個(gè)節(jié)點(diǎn)上,但是由于隱私保護(hù)的原因不得不采用類似分布式學(xué)習(xí)的方法進(jìn)行學(xué)習(xí)(這樣看來傳統(tǒng)的分布式機(jī)器學(xué)習(xí)效果是要好于聯(lián)邦學(xué)習(xí)的,因?yàn)閭鹘y(tǒng)的分布式學(xué)習(xí)是擁有所有數(shù)據(jù)的)。而之后提出的面向隱私保護(hù)的分布式機(jī)器學(xué)習(xí),就有點(diǎn)像聯(lián)邦學(xué)習(xí)的雛形了。面向隱私保護(hù)的分布式機(jī)器學(xué)習(xí)是指參與方擁有相同數(shù)據(jù)的不同特征,希望在隱私保護(hù)的前提下訓(xùn)練出一個(gè)模型(可以看到非常想縱向聯(lián)邦學(xué)習(xí))。后面的聯(lián)邦學(xué)習(xí)對(duì)面向隱私保護(hù)的分布式學(xué)習(xí)進(jìn)行了拓展。

二者的韋恩圖大致如下:
聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介

5 REFERENCE

《聯(lián)邦學(xué)習(xí)》 楊強(qiáng)等人著文章來源地址http://www.zghlxwxcb.cn/news/detail-414725.html

到了這里,關(guān)于聯(lián)邦學(xué)習(xí)是什么?聯(lián)邦學(xué)習(xí)簡(jiǎn)介的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 深入理解聯(lián)邦學(xué)習(xí)——聯(lián)邦學(xué)習(xí)的分類

    深入理解聯(lián)邦學(xué)習(xí)——聯(lián)邦學(xué)習(xí)的分類

    分類目錄:《深入理解聯(lián)邦學(xué)習(xí)》總目錄 在實(shí)際中,孤島數(shù)據(jù)具有不同分布特點(diǎn),根據(jù)這些特點(diǎn),我們可以提出相對(duì)應(yīng)的聯(lián)邦學(xué)習(xí)方案。下面,我們將以孤島數(shù)據(jù)的分布特點(diǎn)為依據(jù)對(duì)聯(lián)邦學(xué)習(xí)進(jìn)行分類。 考慮有多個(gè)數(shù)據(jù)擁有方,每個(gè)數(shù)據(jù)擁有方各自所持有的數(shù)據(jù)集 D i D_i D

    2024年02月09日
    瀏覽(24)
  • 【閱讀筆記】聯(lián)邦學(xué)習(xí)實(shí)戰(zhàn)——聯(lián)邦學(xué)習(xí)視覺案例

    【閱讀筆記】聯(lián)邦學(xué)習(xí)實(shí)戰(zhàn)——聯(lián)邦學(xué)習(xí)視覺案例

    FATE是微眾銀行開發(fā)的聯(lián)邦學(xué)習(xí)平臺(tái),是全球首個(gè)工業(yè)級(jí)的聯(lián)邦學(xué)習(xí)開源框架,在github上擁有近4000stars,可謂是相當(dāng)有名氣的,該平臺(tái)為聯(lián)邦學(xué)習(xí)提供了完整的生態(tài)和社區(qū)支持,為聯(lián)邦學(xué)習(xí)初學(xué)者提供了很好的環(huán)境,否則利用python從零開發(fā),那將會(huì)是一件非常痛苦的事情。本篇

    2023年04月08日
    瀏覽(17)
  • 聯(lián)邦學(xué)習(xí)實(shí)戰(zhàn)-1:用python從零開始實(shí)現(xiàn)橫向聯(lián)邦學(xué)習(xí)

    聯(lián)邦學(xué)習(xí)實(shí)戰(zhàn)-1:用python從零開始實(shí)現(xiàn)橫向聯(lián)邦學(xué)習(xí)

    什么是聯(lián)邦學(xué)習(xí)? 簡(jiǎn)單來說就是在一個(gè)多方的環(huán)境中,數(shù)據(jù)集是零散的(在各個(gè)不同的客戶端中),那么怎樣實(shí)現(xiàn)機(jī)器學(xué)習(xí)算法呢? 首先想到的就是將多個(gè)數(shù)據(jù)集合并合并起來,然后統(tǒng)一的使用傳統(tǒng)的機(jī)器學(xué)習(xí)或者深度學(xué)習(xí)算法進(jìn)行計(jì)算,但是如果有一方因?yàn)閿?shù)據(jù)隱私問題

    2023年04月08日
    瀏覽(148)
  • 聯(lián)邦學(xué)習(xí):聯(lián)邦場(chǎng)景下的域泛化

    聯(lián)邦學(xué)習(xí):聯(lián)邦場(chǎng)景下的域泛化

    域泛化(domain generalization, DG) [1][2] 旨在從多個(gè)源域中學(xué)習(xí)一個(gè)能夠泛化到未知目標(biāo)域的模型。形式化地說,給定 (K) 個(gè)訓(xùn)練的源域數(shù)據(jù)集 (mathcal{S}=left{mathcal{S}^k mid k=1, cdots, Kright}) ,其中第 (k) 個(gè)域的數(shù)據(jù)被表示為 (mathcal{S}^k = left{left(x_i^k, y_i^kright)right}_{i=1

    2024年02月04日
    瀏覽(18)
  • 2023年3月版聯(lián)邦學(xué)習(xí)(fate)從主機(jī)安裝到實(shí)現(xiàn)聯(lián)邦學(xué)習(xí)

    2023年3月版聯(lián)邦學(xué)習(xí)(fate)從主機(jī)安裝到實(shí)現(xiàn)聯(lián)邦學(xué)習(xí)

    單機(jī)版提供3種部署方式,這里選擇在 主機(jī)中安裝FATE (官方建議使用Docker鏡像,但不熟悉Docker的人容易找不到FATE路徑) 使用 虛擬機(jī)VMware 進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)過程中隨時(shí) 拍攝快照 ,節(jié)約重裝時(shí)間。 項(xiàng)目 Value 虛擬機(jī)配置 內(nèi)存4G + 硬盤150G 操作系統(tǒng) centos 7 這里不重復(fù)寫了,請(qǐng)參考

    2023年04月15日
    瀏覽(51)
  • 【FATE聯(lián)邦學(xué)習(xí)】非分類、回歸任務(wù),如何獲得聯(lián)邦模型的輸出?

    一般來說,從FATE框架中獲得數(shù)據(jù)使用 get_component(\\\'name\\\').get_output_data() 。 但是這樣子在目前的1.x的FATE中, 只能以分類、回歸的格式輸出才能獲得 。 如果是圖片、文本、token embedding等,用這種方式根本拿不到模型的輸出。 經(jīng)過跟 FATE社區(qū)人員 交涉,社區(qū)肯定了這種方法拿不出

    2024年02月12日
    瀏覽(23)
  • 聯(lián)邦學(xué)習(xí)的安全機(jī)制

    《聯(lián)邦學(xué)習(xí)實(shí)戰(zhàn)》(楊強(qiáng)等著)讀書筆記 1、基于同態(tài)加密的安全機(jī)制 作為一種不需要將密文解密就可以處理密文的方法,同態(tài)加密是目前聯(lián)邦學(xué)習(xí)系統(tǒng)里最常用的隱私保護(hù)機(jī)制,例如橫向聯(lián)邦學(xué)習(xí)里基于同態(tài)加密的安全聚合方法、基于同態(tài)加密的縱向聯(lián)邦學(xué)習(xí)、基于同態(tài)加

    2024年02月06日
    瀏覽(20)
  • 聯(lián)邦學(xué)習(xí)與安全多方計(jì)算

    聯(lián)邦學(xué)習(xí)(FL,F(xiàn)ederated Learning)是谷歌于2016年提出的一種分布式機(jī)器學(xué)習(xí)框架,可以 在保護(hù)個(gè)人數(shù)據(jù)隱私的前提下,聯(lián)合多方用戶的數(shù)據(jù)實(shí)現(xiàn)模型訓(xùn)練 。 聯(lián)邦學(xué)習(xí)用于解決“數(shù)據(jù)孤島”問題,核心思想是“ 數(shù)據(jù)不動(dòng)模型動(dòng),數(shù)據(jù)可用不可見 ”。 傳統(tǒng)機(jī)器學(xué)習(xí)中,數(shù)據(jù)需集

    2023年04月15日
    瀏覽(28)
  • 去中心化聯(lián)邦學(xué)習(xí)思想

    去中心化聯(lián)邦學(xué)習(xí)是一種保護(hù)用戶隱私的分散式機(jī)器學(xué)習(xí)方法。與集中式聯(lián)邦學(xué)習(xí)相比,去中心化聯(lián)邦學(xué)習(xí)更加注重保護(hù)用戶數(shù)據(jù)隱私,同時(shí)也更具有擴(kuò)展性和健壯性。 在去中心化聯(lián)邦學(xué)習(xí)中,每個(gè)設(shè)備都使用本地?cái)?shù)據(jù)進(jìn)行模型訓(xùn)練,并將模型更新發(fā)送給周圍的鄰居設(shè)備。這

    2024年02月05日
    瀏覽(22)
  • 論文閱讀---聯(lián)邦忘卻學(xué)習(xí)研究綜述

    論文閱讀---聯(lián)邦忘卻學(xué)習(xí)研究綜述

    論文:聯(lián)邦忘卻學(xué)習(xí)研究綜述 federated unlearning-聯(lián)邦忘卻學(xué)習(xí) 摘要 聯(lián)邦忘卻學(xué)習(xí)撤銷用戶數(shù)據(jù)對(duì)聯(lián)邦學(xué)習(xí)模型的訓(xùn)練更新,可以進(jìn)一步保護(hù)聯(lián)邦學(xué)習(xí)用戶的數(shù)據(jù)安全。 聯(lián)邦忘卻學(xué)習(xí)在聯(lián)邦學(xué)習(xí)框架的基礎(chǔ)上,通過迭代訓(xùn)練,直接刪除等方式,撤銷用戶本地局部模型對(duì)全局模型

    2024年03月12日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包