国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深入理解聯(lián)邦學(xué)習(xí)——縱向聯(lián)邦學(xué)習(xí)

這篇具有很好參考價值的文章主要介紹了深入理解聯(lián)邦學(xué)習(xí)——縱向聯(lián)邦學(xué)習(xí)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

分類目錄:《深入理解聯(lián)邦學(xué)習(xí)》總目錄


假設(shè)進行聯(lián)邦學(xué)習(xí)的數(shù)據(jù)提供方為 A A A B B B,第三方為 C C C,則縱向聯(lián)邦學(xué)習(xí)步驟如下:

  1. 在系統(tǒng)級做加密樣本對齊,在企業(yè)感知層面不會暴露非交叉用戶
  2. 對齊樣本進行模型加密訓(xùn)練:
    • 由第三方 C C C A A A B B B發(fā)送公鑰,用來加密需要傳輸?shù)臄?shù)據(jù);
    • A A A B B B分別計算和自己相關(guān)的特征中間結(jié)果,并加密交互
    • A A A B B B分別計算各自加密后的梯度并添加掩碼發(fā)送給 C C C,同時擁有類標(biāo)側(cè)計算加密后的損失發(fā)送給 C C C
    • C C C解密梯度和損失后回傳給 A A A B B B
    • A A A B B B去除掩碼并更新模型

深入理解聯(lián)邦學(xué)習(xí)——縱向聯(lián)邦學(xué)習(xí),深入理解聯(lián)邦學(xué)習(xí),人工智能,聯(lián)邦學(xué)習(xí),隱私,機器學(xué)習(xí),深度學(xué)習(xí)

我們以嶺回歸為例說明縱向聯(lián)邦學(xué)習(xí)的訓(xùn)練過程。假設(shè)存在數(shù)據(jù)集 { x i A } ( i ∈ D A ) \{x_i^A\}(i\in D_A) {xiA?}(iDA?) 和數(shù)據(jù)集 { x i B , y i B } ( i ∈ D B ) \{x_i^B, y_i^B\}(i\in D_B) {xiB?,yiB?}(iDB?) ,其中 B B B為擁有類標(biāo)的數(shù)據(jù)擁有方,我們以線性回歸為例說明縱向聯(lián)邦學(xué)習(xí)的訓(xùn)練過程:

  1. A A A B B B分別初始化模型參數(shù) Θ A \Theta_A ΘA? Θ B \Theta_B ΘB?,則目標(biāo)函數(shù)為: min ? Θ A , Θ B ∑ i ( Θ A x i A + Θ B x i B ? y i ) 2 + λ 2 ( ∣ ∣ Θ A ∣ ∣ 2 + ∣ ∣ Θ B ∣ ∣ 2 ) \min_{\Theta_A, \Theta_B}\sum_i(\Theta_Ax_i^A+\Theta_Bx_i^B-y_i)^2+\frac{\lambda}{2}(||\Theta_A||^2+||\Theta_B||^2) ΘA?,ΘB?min?i?(ΘA?xiA?+ΘB?xiB??yi?)2+2λ?(∣∣ΘA?2+∣∣ΘB?2)
  2. u i A = Θ A x i A u_i^A=\Theta_Ax_i^A uiA?=ΘA?xiA? u i B = Θ B x i B u_i^B=\Theta_Bx_i^B uiB?=ΘB?xiB?,則對原目標(biāo)函數(shù)同態(tài)加密后( [ [ ? ] ] [[\cdot]] [[?]]表示同態(tài)加密)可表示為: [ [ L ] ] = [ [ ∑ i ( u i A + u i B ? y i ) 2 + λ 2 ( ∣ ∣ Θ A ∣ ∣ 2 + ∣ ∣ Θ B ∣ ∣ 2 ) ] ] = [ [ ∑ i ( u i A ) 2 + λ 2 ∣ ∣ Θ A ∣ ∣ 2 ] ] + [ [ ∑ i ( ( u i B ? y i ) 2 ) + λ 2 ∣ ∣ Θ B ∣ ∣ 2 ] ] + 2 ∑ i ( [ [ u i A ] ] ( u i B ? y i ) ) \begin{aligned}[[L]] &= [[\sum_i(u_i^A+u_i^B-y_i)^2+\frac{\lambda}{2}(||\Theta_A||^2+||\Theta_B||^2)]]\\&=[[\sum_i(u_i^A)^2+\frac{\lambda}{2}||\Theta_A||^2]]+[[\sum_i((u_i^B-y_i)^2)+\frac{\lambda}{2}||\Theta_B||^2]]+2\sum_i([[u_i^A]](u_i^B-y_i))\end{aligned} [[L]]?=[[i?(uiA?+uiB??yi?)2+2λ?(∣∣ΘA?2+∣∣ΘB?2)]]=[[i?(uiA?)2+2λ?∣∣ΘA?2]]+[[i?((uiB??yi?)2)+2λ?∣∣ΘB?2]]+2i?([[uiA?]](uiB??yi?))?
  3. 我們令: [ [ L A ] ] = [ [ ∑ i ( u i A ) 2 + λ 2 ∣ ∣ Θ A ∣ ∣ 2 ] ] [ [ L B ] ] = [ [ ∑ i ( ( u i B ? y i ) 2 ) + λ 2 ∣ ∣ Θ B ∣ ∣ 2 ] ] [ [ L A B = 2 ∑ i ( [ [ u i A ] ] ( u i B ? y i ) ) ] ] [ [ d i ] ] = [ [ u i A ] ] + [ [ u i B ? y i ] ] \begin{aligned}[[L_A]]&=[[\sum_i(u_i^A)^2+\frac{\lambda}{2}||\Theta_A||^2]] \\ [[L_B]]&=[[\sum_i((u_i^B-y_i)^2)+\frac{\lambda}{2}||\Theta_B||^2]] \\ [[L_{AB}&=2\sum_i([[u_i^A]](u_i^B-y_i))]] \\ [[d_i]]&=[[u_i^A]]+[[u_i^B-y_i]]\end{aligned} [[LA?]][[LB?]][[LAB?[[di?]]?=[[i?(uiA?)2+2λ?∣∣ΘA?2]]=[[i?((uiB??yi?)2)+2λ?∣∣ΘB?2]]=2i?([[uiA?]](uiB??yi?))]]=[[uiA?]]+[[uiB??yi?]]? [ [ L ] ] = [ [ L A ] ] + [ [ L B ] ] + [ [ L A B ] ] [[L]]=[[L_A]]+[[L_B]]+[[L_{AB}]] [[L]]=[[LA?]]+[[LB?]]+[[LAB?]]
  4. 計算梯度: [ [ ? L ? Θ A ] ] = ∑ i [ [ d i ] ] x i A + [ [ λ Θ A ] ] [ [ ? L ? Θ B ] ] = ∑ i [ [ d i ] ] x i B + [ [ λ Θ B ] ] \begin{aligned}[[\frac{\partial L}{\partial\Theta_A}]]&=\sum_i[[d_i]]x_i^A+[[\lambda\Theta_A]]\\ [[\frac{\partial L}{\partial\Theta_B}]]&=\sum_i[[d_i]]x_i^B+[[\lambda\Theta_B]]\end{aligned} [[?ΘA??L?]][[?ΘB??L?]]?=i?[[di?]]xiA?+[[λΘA?]]=i?[[di?]]xiB?+[[λΘB?]]?

針對數(shù)據(jù)提供方為 A A A B B B以及第三方為 C C C,縱向聯(lián)邦學(xué)習(xí)的訓(xùn)練步驟如下:

\qquad\quad 數(shù)據(jù)提供方為 A A A 數(shù)據(jù)提供方為 B B B 第三方為 C C C
步驟 1 1 1 初始化參數(shù) Θ A \Theta_A ΘA? 初始化參數(shù) Θ B \Theta_B ΘB? 創(chuàng)建加密秘鑰對,并將公鑰發(fā)送給數(shù)據(jù)提供方為 A A A B B B
步驟 2 2 2 計算 [ [ u I A ] ] [[u_I^A]] [[uIA?]] [ [ L A ] ] [[L_A]] [[LA?]]并發(fā)送給數(shù)據(jù)提供方 B B B 計算 [ [ u I B ] ] [[u_I^B]] [[uIB?]]、 [ [ d i ] ] [[d_i]] [[di?]] [ [ L ] ] [[L]] [[L]],并將 [ [ d i ] ] [[d_i]] [[di?]]發(fā)送給數(shù)據(jù)提供方 A A A,將 [ [ L ] ] [[L]] [[L]]發(fā)送給第三方 C C C
步驟 3 3 3 初始化掩碼 R A R_A RA?,計算 [ [ ? L ? Θ A ] ] + [ [ R A ] ] [[\frac{\partial L}{\partial\Theta_A}]]+[[R_A]] [[?ΘA??L?]]+[[RA?]] 并發(fā)送給第三方 C C C 初始化掩碼 R B R_B RB?,計算 [ [ ? L ? Θ B ] ] + [ [ R B ] ] [[\frac{\partial L}{\partial\Theta_B}]]+[[R_B]] [[?ΘB??L?]]+[[RB?]] 并發(fā)送給第三方 C C C 解密 L L L并發(fā)送 ? L ? Θ A + R A \frac{\partial L}{\partial\Theta_A} + R_A ?ΘA??L?+RA?給數(shù)據(jù)提供方 A A A,發(fā)送 ? L ? Θ B + R A \frac{\partial L}{\partial\Theta_B} + R_A ?ΘB??L?+RA?給數(shù)據(jù)提供方 B B B
步驟 4 4 4 更新參數(shù) Θ A \Theta_A ΘA? 更新參數(shù) Θ B \Theta_B ΘB?

在整個過程中參與方都不知道另一方的數(shù)據(jù)和特征,且訓(xùn)練結(jié)束后參與方只得到自己側(cè)的模型參數(shù),即半模型。由于各參與方只能得到與自己相關(guān)的模型參數(shù),預(yù)測時需要雙方協(xié)作完成:

  1. 第三方 C C C將待預(yù)測用戶ID分別發(fā)送給數(shù)據(jù)提供方 A A A B B B
  2. 數(shù)據(jù)提供方 A A A B B B分別計算 u A u^A uA u B u^B uB并進行同態(tài)加密得到 [ [ u A ] ] [[u^A]] [[uA]] [ [ u B ] ] [[u^B]] [[uB]]
  3. 數(shù)據(jù)提供方 A A A B B B將同態(tài)加密后的 [ [ u A ] ] [[u^A]] [[uA]] [ [ u B ] ] [[u^B]] [[uB]]發(fā)送給 第三方 C C C
  4. 第三方 C C C計算同態(tài)加密后的預(yù)測值 [ [ y ] ] = [ [ u A ] ] + [ [ u B ] ] [[y]]=[[u^A]]+[[u^B]] [[y]]=[[uA]]+[[uB]]再解密得到預(yù)測值 y y y

參考文獻:
[1] 楊強, 劉洋, 程勇, 康焱, 陳天健, 于涵. 聯(lián)邦學(xué)習(xí)[M]. 電子工業(yè)出版社, 2020
[2] 微眾銀行, FedAI. 聯(lián)邦學(xué)習(xí)白皮書V2.0. 騰訊研究院等, 2021文章來源地址http://www.zghlxwxcb.cn/news/detail-698783.html

到了這里,關(guān)于深入理解聯(lián)邦學(xué)習(xí)——縱向聯(lián)邦學(xué)習(xí)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 深入理解聯(lián)邦學(xué)習(xí)——聯(lián)邦學(xué)習(xí)的分類

    深入理解聯(lián)邦學(xué)習(xí)——聯(lián)邦學(xué)習(xí)的分類

    分類目錄:《深入理解聯(lián)邦學(xué)習(xí)》總目錄 在實際中,孤島數(shù)據(jù)具有不同分布特點,根據(jù)這些特點,我們可以提出相對應(yīng)的聯(lián)邦學(xué)習(xí)方案。下面,我們將以孤島數(shù)據(jù)的分布特點為依據(jù)對聯(lián)邦學(xué)習(xí)進行分類。 考慮有多個數(shù)據(jù)擁有方,每個數(shù)據(jù)擁有方各自所持有的數(shù)據(jù)集 D i D_i D

    2024年02月09日
    瀏覽(24)
  • (六)人工智能應(yīng)用--深度學(xué)習(xí)原理與實戰(zhàn)--理解張量與運算圖

    (六)人工智能應(yīng)用--深度學(xué)習(xí)原理與實戰(zhàn)--理解張量與運算圖

    Tensorflow名稱中的Tensor即張量,不僅僅是Tensorflow,幾乎所有的深度學(xué)習(xí)平臺都以張量為基本的數(shù)據(jù)結(jié)構(gòu)。簡單來說,張量就是多維數(shù)組,本質(zhì)上是一種數(shù)據(jù)容器,它可以有任意維度,比如矩陣就是二維張量(二維數(shù)組)。 深度學(xué)習(xí)中使用張量來表示數(shù)據(jù),計算圖是由張量和張量

    2024年02月15日
    瀏覽(28)
  • 人工智能學(xué)習(xí)與實訓(xùn)筆記(一):零基礎(chǔ)理解神經(jīng)網(wǎng)絡(luò)

    人工智能學(xué)習(xí)與實訓(xùn)筆記(一):零基礎(chǔ)理解神經(jīng)網(wǎng)絡(luò)

    人工智能專欄文章匯總:人工智能學(xué)習(xí)專欄文章匯總-CSDN博客 本篇目錄 一、什么是神經(jīng)網(wǎng)絡(luò)模型 二、機器學(xué)習(xí)的類型 2.1 監(jiān)督學(xué)習(xí) 2.2 無監(jiān)督學(xué)習(xí) 2.3 半監(jiān)督學(xué)習(xí) 2.4 強化學(xué)習(xí) 三、網(wǎng)絡(luò)模型結(jié)構(gòu)基礎(chǔ) 3.1 單層網(wǎng)絡(luò) ?編輯 3.2 多層網(wǎng)絡(luò) 3.3?非線性多層網(wǎng)絡(luò) ?四、 神經(jīng)網(wǎng)絡(luò)解決回

    2024年02月20日
    瀏覽(34)
  • 機器學(xué)習(xí)模型的可解釋性:增加對人工智能系統(tǒng)的信任和理解

    機器學(xué)習(xí)模型的可解釋性:增加對人工智能系統(tǒng)的信任和理解

    ????????為了以道德和值得信賴的方式使用人工智能,研究人員必須繼續(xù)創(chuàng)建平衡模型復(fù)雜性和易于解釋的方法。 ????????機器學(xué)習(xí)模型在各個領(lǐng)域的使用都取得了重大進展,包括自然語言處理、生成式人工智能和自主系統(tǒng)等。另一方面,隨著模型復(fù)雜性和規(guī)模的增加

    2024年02月13日
    瀏覽(20)
  • 人工智能_機器學(xué)習(xí)065_SVM支持向量機KKT條件_深度理解KKT條件下的損失函數(shù)求解過程_公式詳細推導(dǎo)_---人工智能工作筆記0105

    人工智能_機器學(xué)習(xí)065_SVM支持向量機KKT條件_深度理解KKT條件下的損失函數(shù)求解過程_公式詳細推導(dǎo)_---人工智能工作筆記0105

    之前我們已經(jīng)說了KKT條件,其實就是用來解決 如何實現(xiàn)對,不等式條件下的,目標(biāo)函數(shù)的求解問題,之前我們說的拉格朗日乘數(shù)法,是用來對 等式條件下的目標(biāo)函數(shù)進行求解. KKT條件是這樣做的,添加了一個阿爾法平方對吧,這個阿爾法平方肯定是大于0的,那么 可以結(jié)合下面的文章去

    2024年02月04日
    瀏覽(26)
  • 【人工智能】深入了解人工智能的核心算法與應(yīng)用實踐

    【人工智能】深入了解人工智能的核心算法與應(yīng)用實踐

    人工智能知識對于當(dāng)今的互聯(lián)網(wǎng)技術(shù)人來說已經(jīng)是剛需。但人工智能的概念、流派、技術(shù)紛繁復(fù)雜,選擇哪本書入門最適合呢? 這部被譽為人工智能“百科全書”的《人工智能(第3版)》,可以作為每個技術(shù)人進入 AI 世界的第一本書。 這本書是美國人工智能領(lǐng)域的權(quán)威經(jīng)典

    2024年02月03日
    瀏覽(159)
  • 【人工智能】人工智能的技術(shù)研究與安全問題的深入討論

    【人工智能】人工智能的技術(shù)研究與安全問題的深入討論

    前言 ?? 人工智能(Artificial Intelligence),英文縮寫為AI 。 它是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量。 ??作者簡介: 熱愛跑步的恒川 ,致力于C/C++、Java、

    2024年02月05日
    瀏覽(20)
  • 3、TensorFlow教程--- 理解人工智能

    3、TensorFlow教程--- 理解人工智能

    人工智能包括通過機器和特殊計算機系統(tǒng)模擬人類智能的過程。人工智能的示例包括學(xué)習(xí)、推理和自我校正。人工智能的應(yīng)用包括語音識別、專家系統(tǒng)、圖像識別和機器視覺。 機器學(xué)習(xí)是人工智能的一個分支,它處理可以學(xué)習(xí)任何新數(shù)據(jù)和數(shù)據(jù)模式的系統(tǒng)和算法。 讓我們關(guān)

    2024年02月08日
    瀏覽(26)
  • 人工智能與自主行為:理解與挑戰(zhàn)

    人工智能(Artificial Intelligence,AI)是一門研究如何讓計算機模擬人類智能的學(xué)科。自主行為(Autonomous Action)是一種能夠在沒有人類干預(yù)的情況下自主決策并執(zhí)行的行為。人工智能與自主行為的結(jié)合,為我們提供了一種新的技術(shù)手段,可以讓計算機自主地完成復(fù)雜的任務(wù),甚至實現(xiàn)

    2024年02月19日
    瀏覽(23)
  • 深入探索人工智能與計算機視覺

    深入探索人工智能與計算機視覺

    在當(dāng)今數(shù)字化時代,人工智能(AI)和計算機視覺(CV)作為兩大前沿技術(shù),正以驚人的速度改變著我們的生活。本文將深入探討人工智能與計算機視覺的關(guān)系、應(yīng)用以及未來發(fā)展方向。 1. 人工智能與計算機視覺的關(guān)系 人工智能是一門涵蓋眾多技術(shù)領(lǐng)域的學(xué)科,旨在使計算機

    2024年04月14日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包