国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文筆記:E(n) Equivariant Graph Neural Networks

這篇具有很好參考價值的文章主要介紹了論文筆記:E(n) Equivariant Graph Neural Networks。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

0 介紹

????????本文介紹了一種新模型來學(xué)習(xí)與旋轉(zhuǎn)、平移、反射和排列等變的圖神經(jīng)網(wǎng)絡(luò),稱為 E(n)-等變圖神經(jīng)網(wǎng)絡(luò) (EGNN)。

???????? 與現(xiàn)有方法相比,EGNN不需要在中間層中計算昂貴的高階表示,同時仍能獲得有競爭力或更好的性能。 此外,雖然現(xiàn)有方法僅限于 3 維空間的等變性,但EGNN很容易擴(kuò)展到更高維空間。?

1? introduction

????????盡管深度學(xué)習(xí)在很大程度上取代了手工制作的特征,但許多進(jìn)步嚴(yán)重依賴于深度神經(jīng)網(wǎng)絡(luò)中的歸納偏差。(inductive bias)

???????? 將神經(jīng)網(wǎng)絡(luò)限制為和研究問題相關(guān)函數(shù)的一種有效方法是,利用問題的對稱性、變換等變性(equivariance),通過研究某個對稱組來簡化當(dāng)前問題的計算。【eg,CNN的卷積是等變形、池化是近似不變性;GNN的點(diǎn)的排列順序是等變性(不同點(diǎn)的排列對應(yīng)不同的鄰接矩陣,但是最終這張graph表達(dá)的信息是一樣的)】

? ? ? ??許多問題都表現(xiàn)出 3D 平移和旋轉(zhuǎn)對稱性。論文中將這些對稱操作的集合記為SE(3) ,如果包含反射,那么集合記為 E(3)。 通常希望對這些任務(wù)的預(yù)測相對于 E(3) 變換是等變的或不變的。、

????????最近,已經(jīng)提出了等變E(3) 或 SE(3) 的各種形式和方法。 其中許多工作在研究中間網(wǎng)絡(luò)層的高階表示類型方面實現(xiàn)了創(chuàng)新。 然而,這些高階表示的轉(zhuǎn)換需要計算成本高昂的系數(shù)或近似值。 此外,在實踐中,對于許多類型的數(shù)據(jù),輸入和輸出僅限于標(biāo)量值(例如溫度或能量,在文獻(xiàn)中稱為 type-0)和 3d 矢量(例如速度或動量,在文獻(xiàn)中稱為 type-1)。

????????這篇paper提出了一種新的架構(gòu),它是平移、旋轉(zhuǎn)和反射等變 (E(n)),以及關(guān)于輸入點(diǎn)集的置換等變模型比以前的方法更簡單,同時模型中的等變性不限于 3 維空間,并且可以擴(kuò)展到更大的維空間,而不會顯著增加計算量。

2 背景知識

2.1 等變性

定義:

論文筆記:E(n) Equivariant Graph Neural Networks? ? ? ??

通俗地說,先平移/旋轉(zhuǎn)/排列再映射,和先映射再平移/旋轉(zhuǎn)/排列 效果是一樣的

2.2 GNN

GNN筆記:消息傳播模型_UQI-LIUWJ的博客-CSDN博客

3 EGNN

  • 考慮一張圖,其中,
  • 每一個點(diǎn)的特征embedding是?(和2.2的GNN一樣)[這個nf指的是node feature,并不是n乘f]【不帶方向的物理信息,標(biāo)量】
  • 但在此基礎(chǔ)上,EGNN對每個點(diǎn)加了一個n維的坐標(biāo)【帶方向的幾何信息,矢量】

GNN將保持與這些坐標(biāo) xi 旋轉(zhuǎn)和平移的等變性,并且它還將以與 GNN 相同的方式保持與節(jié)點(diǎn)集 V 上排列的等變性。

論文筆記:E(n) Equivariant Graph Neural Networks

?用公式表示第l層EGNN,Equivariant Graph Convolutional Layer (EGCL)有:論文筆記:E(n) Equivariant Graph Neural Networks

論文筆記:E(n) Equivariant Graph Neural Networks

和傳統(tǒng)GNN不一樣的地方用綠色框框畫出來了

  • 在等式3中,EGNN增加了兩個坐標(biāo)之間的距離作為參數(shù)
  • 在等式 4 中,按照論文的意思,xi的位置更新為徑向的矢量場,由所有共同決定【這里我不是很理解,為什么會是徑向的,因為不同的xi,它的方向是不一樣的,作為向量減法,不一定沿著徑向呀】
    • 等式4每一項的加權(quán)系數(shù)是通過函數(shù)?計算的
    • 這里的C=1/(M-1)
  • ——>等式3&4可以保證等變性
  • ——>與此同時,另外一個區(qū)別是,這邊考慮了所有(i,j)對,而不僅僅是鄰居點(diǎn)之間的pair,也就是說,embedding? mij可以包含全圖的信息

論文筆記:E(n) Equivariant Graph Neural Networks?

?文章來源地址http://www.zghlxwxcb.cn/news/detail-404501.html

?3.1 平移等變性

g是一個平移向量,x(type-1向量)是平移等變性(equivariant),h(type-0向量)是平移不變性(invariant)

論文筆記:E(n) Equivariant Graph Neural Networks

?——>不難發(fā)現(xiàn),EGCL的組合也是具有等變性的

3.2 拓展EGNN

這里對前面的EGNN進(jìn)行輕微修改,以便我們明確地跟蹤粒子的動量。

這不僅可以用于獲得粒子在每一層的速度估計值,還可以將動量引入進(jìn)來

用公式表示,就是將論文筆記:E(n) Equivariant Graph Neural Networks

?表示成論文筆記:E(n) Equivariant Graph Neural Networks

?論文筆記:E(n) Equivariant Graph Neural Networks'

如果為0,那么等式4和等式7表達(dá)的是一個意思

3.3 得到點(diǎn)的信息

在某些情況下,我們可能并不總是得到一個鄰接矩陣。 在這些情況下,我們可以假設(shè)一個全連接圖,其中所有節(jié)點(diǎn)相互交換消息。

這種全連接方法可能無法很好地擴(kuò)展到大圖,我們希望只需考慮鄰居節(jié)點(diǎn)N(i)的點(diǎn)之間的交互。

論文這里使用如下的方式論文筆記:E(n) Equivariant Graph Neural Networks

其中如果(i,j)有連邊,那么eij為1,否則為0

論文通過一個函數(shù)來近似eij :(線性層+sigmoid激活函數(shù),輸入邊embedding,輸出邊value的soft estimation)

?

到了這里,關(guān)于論文筆記:E(n) Equivariant Graph Neural Networks的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包