国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)

這篇具有很好參考價值的文章主要介紹了【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

文章信息

Variational Graph Recurrent Neural Networks(VGRNN)
【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)

原文地址:Variational Graph Recurrent Neural Networks(VGRNN):https://arxiv.org/abs/1908.09710
源碼: https://github.com/VGraphRNN/VGRNN

摘要

Representation learning over graph structured data has been mostly studied in static graph settings while efforts for modeling dynamic graphs are still scant. In this paper, we develop a novel hierarchical variational model that introduces additional latent random variables to jointly model the hidden states of a graph recurrent neural network (GRNN) to capture both topology and node attribute changes in dynamic graphs. We argue that the use of high-level latent random variables in this variational GRNN (VGRNN) can better capture potential variability observed in dynamic graphs as well as the uncertainty of node latent representation. With semi-implicit variational inference developed for this new VGRNN architecture (SI-VGRNN), we show that flexible non-Gaussian latent representations can further help dynamic graph analytic tasks. Our experiments with multiple real-world dynamic graph datasets demonstrate that SI-VGRNN and VGRNN consistently outperform the existing baseline and state-of-the-art methods by a significant margin in dynamic link prediction.

對圖結(jié)構(gòu)化數(shù)據(jù)的表示學(xué)習(xí)主要在靜態(tài)圖設(shè)置中進行研究,而對動態(tài)圖進行建模的努力仍然很少。在本文中,我們開發(fā)了一種新穎的分層變分模型,該模型引入了額外的隨機變量來聯(lián)合建模圖遞歸神經(jīng)網(wǎng)絡(luò)(GRNN)的隱藏狀態(tài),以捕獲拓撲和節(jié)點屬性變化的非動態(tài)圖。我們認為,在這個變分GRNN(VGRNN)中使用高級潛在隨機變量可以更好地捕獲動態(tài)圖中觀察到的潛在變異性以及節(jié)點潛在表示的不確定性。通過為這種新的VGRNN架構(gòu)(SI-VGRNN)開發(fā)的半隱式變分推理,我們表明靈活的非高斯?jié)撛诒硎究梢赃M一步幫助動態(tài)圖分析任務(wù)。我們使用多個真實世界動態(tài)圖數(shù)據(jù)集的實驗表明,SI-VGRNN 和 VGRNN 在動態(tài)鏈接預(yù)測方面始終優(yōu)于現(xiàn)有的基線和最先進的方法。

Background

Graph convolutional recurrent networks (GCRN)

GCRN用于對靜態(tài)圖節(jié)點上定義的時間序列數(shù)據(jù)進行建模。視頻中的一系列幀和傳感器網(wǎng)絡(luò)上的時空測量是此類數(shù)據(jù)集的兩個示例。GCRN將圖卷積網(wǎng)絡(luò)(GCN)與循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)相結(jié)合,以捕獲數(shù)據(jù)中的空間和時間特征。更準確地說,給定一個具有 N 個節(jié)點的圖 G,其拓撲由鄰接矩陣 A 確定,節(jié)點屬性序列 【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN),GCRN 讀取 M 維節(jié)點屬性【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)并對每個時間步 t 更新其隱藏狀態(tài) ht:
【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)
這里 f 是一個非概率深度神經(jīng)網(wǎng)絡(luò)。它可以是任何遞歸網(wǎng)絡(luò),包括門控激活函數(shù),如長短期記憶(LSTM)或門控循環(huán)單元(GRU),其中它們內(nèi)部的深層被圖卷積層取代。GCRN 通過將聯(lián)合概率分布的因式分解參數(shù)化為條件概率的乘積來對節(jié)點屬性序列進行建模。
【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)由于轉(zhuǎn)移函數(shù)f的確定性,這里映射函數(shù)g的選擇有效地定義了聯(lián)合概率分布【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)可以用標(biāo)準GCRN表示。對于高度可變的序列,這可能會有問題。更具體地說,當(dāng) X 的變異性很高時,模型試圖在隱藏狀態(tài) h 中映射這種變異性,從而導(dǎo)致 h 的潛在高變異,進而導(dǎo)致訓(xùn)練數(shù)據(jù)的過度擬合。因此,GCRN并不完全能夠?qū)哂懈咦儺惖男蛄羞M行建模。自回歸模型的這一基本問題已通過向模型引入隨機隱藏狀態(tài)來解決非圖結(jié)構(gòu)數(shù)據(jù)集。

在本文中,我們將GCN和RNN集成到一個圖RNN(GRNN)框架中,這是一個動態(tài)圖自動編碼器模型。雖然GCRN旨在對靜態(tài)圖上定義的動態(tài)節(jié)點屬性進行建模,但GRNN可以在不同的時間快照獲得不同的鄰接矩陣,并通過在隱藏狀態(tài)ht上采用內(nèi)積解碼器在時間t重建圖。更具體地說,ht可以看作是動態(tài)圖在時間t的節(jié)點嵌入。為了進一步提高GRNN的表達能力,我們通過結(jié)合GRNN和變分圖自動編碼器(VGAE)來引入隨機潛在變量。這樣,我們不僅可以在不假設(shè)平滑性的情況下捕獲圖之間的時間依賴關(guān)系,而且每個節(jié)點都用潛在空間中的分布表示。此外,VGRNN中設(shè)計的先前構(gòu)造使其能夠預(yù)測未來時間步中的鏈接。

Semi-implicit variational inference (SIVI)

SIVI已被證明可以有效地學(xué)習(xí)具有偏度、峰度、多模態(tài)和其他特征的后驗分布,而現(xiàn)有的變分推理方法無法捕捉到這些特征。為了表征潛在的后驗q(z|x),SIVI在原始后驗分布的參數(shù)上引入了混合分布,以擴展具有分層結(jié)構(gòu)的變分族:【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)。φ表示要推斷的分布參數(shù)。雖然原始后驗q(z|ψ)需要具有解析形式,但其混合分布不受這種約束,因此邊際后驗分布通常是隱含的,沒有解析密度函數(shù)更具表現(xiàn)力。層次結(jié)構(gòu)的邊緣是隱式的也很常見,即使后驗分布和混合分布都是顯式的。我們將SIVI集成到我們的新模型中,為動態(tài)圖推斷更靈活和可解釋的節(jié)點嵌入。

Variational graph recurrent neural network (VGRNN)

我們考慮一個動態(tài)圖【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN),其中【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)是時間步長t的圖,【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)分別是相應(yīng)的節(jié)點和邊集。在本文中,我們旨在開發(fā)一個與節(jié)點和邊緣集中的潛在變化普遍兼容的模型。【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)之間的關(guān)系沒有約束,即新節(jié)點可以加入動態(tài)圖并創(chuàng)建現(xiàn)有節(jié)點的邊,或者以前的節(jié)點可以從圖中消失。

另一方面,快照之間可以形成新的邊,而現(xiàn)有邊可以消失。設(shè) Nt 表示節(jié)點的數(shù)量,即 【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN) 在時間步長 t 的基數(shù)。因此,VGRNN可以將可變長度鄰接矩陣序列【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)作為輸入。此外,在考慮節(jié)點屬性時,可以在不同的快照上觀察到不同的屬性,具有可變長度節(jié)點屬性序列 【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)。請注意,【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)分別是 Nt × Nt 和 Nt × M 矩陣,其中 M 是節(jié)點屬性的維度,該維度隨時間變化是恒定的。受變分遞歸神經(jīng)網(wǎng)絡(luò)(VRNN)的啟發(fā),我們通過集成GRNN和VGAE來構(gòu)建VGRNN,以便充分和同時地對拓撲和節(jié)點屬性動力學(xué)之間的復(fù)雜依賴關(guān)系進行建模。此外,每個節(jié)點在每個時間都用分布表示,因此在VGRNN中也對節(jié)點潛在表示的不確定性進行了建模。

VGRNN model

【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)

VGRNN 模型采用 VGAE 對每個圖形快照進行建模。VGAEs在時間范圍內(nèi)以狀態(tài)變量ht?1為條件,由GRNN建模。這樣的架構(gòu)設(shè)計將幫助每個VGAE考慮動態(tài)圖的時間結(jié)構(gòu)。更重要的是,與標(biāo)準VGAE不同,VGRNN中的VGAE通過允許分布參數(shù)通過前一個時間步的信息的顯式或隱式復(fù)雜函數(shù)進行建模,從而在潛在隨機變量上采用新的先驗。更具體地說,VGRNN 中的 VGAE 不是強加具有確定性參數(shù)的標(biāo)準多元高斯分布,而是根據(jù)先前時間步中的隱藏狀態(tài)學(xué)習(xí)先驗分布參數(shù)。因此,我們的VGRNN允許更靈活的潛在表示,具有更大的表達能力,可以捕獲拓撲和節(jié)點屬性演化過程之間和內(nèi)部的依賴關(guān)系。特別是,我們可以將實驗中采用的先驗分布的構(gòu)造寫成如下:
【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)其中,【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)
表示條件先驗分布的參數(shù)。

此外,生成分布將以【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)為條件:
【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)

其中π(t)表示生成分布的參數(shù);φprior和φdec可以是任何高度靈活的函數(shù),例如神經(jīng)網(wǎng)絡(luò)。

另一方面,骨干GRNN可以靈活地對復(fù)雜的依賴關(guān)系進行建模,包括圖拓撲動力學(xué)和節(jié)點屬性動力學(xué)。GRNN 使用遞歸方程更新其隱藏狀態(tài):
【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)
其中 f 最初是方程 (1) 的轉(zhuǎn)移函數(shù)。與GRNN不同,圖拓撲可以在不同的時間步長中發(fā)生變化,就像在現(xiàn)實世界的動態(tài)圖中一樣,并且鄰接矩陣A(t)在VGRNN中是時間相關(guān)的。為了進一步增強表達能力,φx和φz為深度神經(jīng)網(wǎng)絡(luò),它們在每個節(jié)點上獨立運行,并分別從X(t)和Z(t)中提取特征。這些特征提取器對于學(xué)習(xí)復(fù)雜的圖形動力學(xué)至關(guān)重要。基于 (4),ht 是 【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN) 的函數(shù)。因此,方程 (2) 和 (3) 中的先驗分布和生成分布分別定義了分布【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)。生成模型可以分解為
【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)其中第一個快照的先驗被認為是標(biāo)準多元高斯分布,即【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)。此外,如果在快照 t 處將一個以前未觀察到的節(jié)點添加到圖中,我們認為該節(jié)點在快照 t ? 1 處的隱藏狀態(tài)為零,因此該節(jié)點在時間 t 處的先驗狀態(tài)為 N (0, I)。如果發(fā)生節(jié)點刪除,我們假設(shè)節(jié)點的標(biāo)識可以保持,因此刪除一個節(jié)點,相當(dāng)于刪除了與其連接的所有邊,不會影響下一步的先前構(gòu)造。更具體地說,A和X的大小可以隨時間變化,而它們的潛在空間會隨時間而保持。

Semi-implicit VGRNN (SI-VGRNN)

為了進一步提高VGRNN變分后驗的表達能力,我們引入了aSI-VGRNN動態(tài)節(jié)點嵌入模型。我們對 (8) 中的變分分布參數(shù)施加了混合分布,以使用半隱式分層結(jié)構(gòu)對 VGRNN 的后驗進行建模:
【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)雖然變分分布 【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)需要顯式,但混合分布 qφ 不受這種約束,導(dǎo)致相當(dāng)靈活的 【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)。更具體地說,SI-VGRNN 通過圖形神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)換隨機噪聲 t 從 qφ 中提取樣本,這通常會導(dǎo)致 qφ 的隱式分布。文章來源地址http://www.zghlxwxcb.cn/news/detail-481781.html

到了這里,關(guān)于【論文導(dǎo)讀】- Variational Graph Recurrent Neural Networks(VGRNN)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • [論文閱讀筆記25]A Comprehensive Survey on Graph Neural Networks

    [論文閱讀筆記25]A Comprehensive Survey on Graph Neural Networks

    這是一篇GNN的綜述, 發(fā)表于2021年的TNNLS. 這篇博客旨在對GNN的基本概念做一些記錄. 論文地址: 論文 對于圖像數(shù)據(jù)來說, CNN具有平移不變性和局部連接性, 因此可以在歐氏空間上良好地學(xué)習(xí). 然而, 對于具有圖結(jié)構(gòu)的數(shù)據(jù)(例如社交網(wǎng)絡(luò) 化學(xué)分子等)就需要用GNN來學(xué)習(xí). 最早期的GN

    2024年02月11日
    瀏覽(24)
  • 論文解讀:SuperGlue: Learning Feature Matching with Graph Neural Networks

    論文解讀:SuperGlue: Learning Feature Matching with Graph Neural Networks

    SuperGlue: Learning Feature Matching with Graph Neural Networks 發(fā)表時間:2020 論文地址:https://arxiv.org/abs/1911.11763 項目地址:http://github.com/magicleap/SuperGluePretrainedNetwork。 本文介紹了一種通過聯(lián)合尋找對應(yīng)和拒絕非匹配點來匹配兩組局部特征的神經(jīng)網(wǎng)絡(luò)。通過求解一個可微最優(yōu)傳輸問題來估

    2024年02月08日
    瀏覽(20)
  • 論文閱讀 (94):Substructure Aware Graph Neural Networks (SAGNN, AAAI2023)

    論文閱讀 (94):Substructure Aware Graph Neural Networks (SAGNN, AAAI2023)

    題目 : 子結(jié)構(gòu)感知圖神經(jīng)網(wǎng)絡(luò) (Substructure aware graph neural networks, SAGNN) 背景 :盡管圖神經(jīng)網(wǎng)絡(luò) (GNN) 在圖學(xué)習(xí)方面取得了巨大成就,但由于GNN的傳播范式與一階Weisfeiler-Leman圖同構(gòu)測試算法 (1-WL) 的一致性,導(dǎo)致其難以突破1-WL表達能力的上限。 思路 :通過子圖更容易區(qū)分原始圖

    2024年02月12日
    瀏覽(20)
  • 《論文閱讀27》SuperGlue: Learning Feature Matching with Graph Neural Networks

    《論文閱讀27》SuperGlue: Learning Feature Matching with Graph Neural Networks

    研究領(lǐng)域: 圖像特征點匹配 論文:SuperGlue: Learning Feature Matching with Graph Neural Networks CVPR 2020 veido 論文code? [參考]?[參考]?[參考]? ? SuperGlue:使用圖神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)特征匹配 本文介紹了SuperGlue,一種神經(jīng)網(wǎng)絡(luò),通過 共同尋找對應(yīng)點和拒絕不匹配點 來匹配兩組本地特征。分配估

    2024年02月05日
    瀏覽(21)
  • 【論文導(dǎo)讀】-Vertically Federated Graph Neural Network for Privacy-Preserving Node Classification縱向聯(lián)邦圖神經(jīng)網(wǎng)絡(luò)

    【論文導(dǎo)讀】-Vertically Federated Graph Neural Network for Privacy-Preserving Node Classification縱向聯(lián)邦圖神經(jīng)網(wǎng)絡(luò)

    原文地址:https://www.ijcai.org/proceedings/2022/0272.pdf Graph Neural Network (GNN) has achieved remarkable progresses in various real-world tasks on graph data, consisting of node features and the adjacent information between different nodes. High-performance GNN models always depend on both rich features and complete edge information in graph. Howeve

    2024年01月23日
    瀏覽(27)
  • EEG-GNN論文閱讀和分析:《EEG Emotion Recognition Using Dynamical Graph Convolutional Neural Networks》

    EEG-GNN論文閱讀和分析:《EEG Emotion Recognition Using Dynamical Graph Convolutional Neural Networks》

    下面所有博客是個人對EEG腦電的探索,項目代碼是早期版本不完整,需要完整項目代碼和資料請私聊。 數(shù)據(jù)集 1、腦電項目探索和實現(xiàn)(EEG) (上):研究數(shù)據(jù)集選取和介紹SEED 相關(guān)論文閱讀分析: 1、EEG-SEED數(shù)據(jù)集作者的—基線論文閱讀和分析 2、圖神經(jīng)網(wǎng)絡(luò)EEG論文閱讀和分析:《

    2024年02月07日
    瀏覽(19)
  • 圖神經(jīng)網(wǎng)絡(luò)EEG論文閱讀和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

    圖神經(jīng)網(wǎng)絡(luò)EEG論文閱讀和分析:《EEG-Based Emotion Recognition Using Regularized Graph Neural Networks》

    下面所有博客是個人對EEG腦電的探索,項目代碼是早期版本不完整,需要完整項目代碼和資料請私聊。 數(shù)據(jù)集 1、腦電項目探索和實現(xiàn)(EEG) (上):研究數(shù)據(jù)集選取和介紹SEED 相關(guān)論文閱讀分析: 1、EEG-SEED數(shù)據(jù)集作者的—基線論文閱讀和分析 2、圖神經(jīng)網(wǎng)絡(luò)EEG論文閱讀和分析:《

    2024年02月09日
    瀏覽(26)
  • 全網(wǎng)最詳細解讀《GIN-HOW POWERFUL ARE GRAPH NEURAL NETWORKS》?。?!

    全網(wǎng)最詳細解讀《GIN-HOW POWERFUL ARE GRAPH NEURAL NETWORKS》!!!

    GNNs 大都遵循一個遞歸鄰居聚合的方法,經(jīng)過 k 次迭代聚合,一個節(jié)點所表征的特征向量能夠捕捉到距離其 k-hop 鄰域的鄰居節(jié)點的特征,然后還可以通過 pooling 獲取到整個圖的表征(比如將所有節(jié)點的表征向量相加后用于表示一個圖表征向量)。 關(guān)于鄰居聚合策略以及池化策

    2024年02月05日
    瀏覽(17)
  • GNN的一篇入門 :A Gentle Introduction to Graph Neural Networks

    GNN的一篇入門 :A Gentle Introduction to Graph Neural Networks

    內(nèi)容簡介:本文是“A Gentle Introduction to Graph Neural Networks”的閱讀筆記,因為第一次接觸GNN,很多深奧的概念不懂,因此沒有讀完全,maybe后續(xù)會補上。 Graph 是什么? Graph 實際上 就是 三個要素,vertex是節(jié)點,Edge邊,Attribute是圖的特征 。 Graph問題用來做什么? 可以分為三類,

    2024年02月15日
    瀏覽(24)
  • 論文筆記:DCRNN (Diffusion Convolutional Recurrent Neural Network: Data-Driven Traffic Forecasting)

    論文筆記:DCRNN (Diffusion Convolutional Recurrent Neural Network: Data-Driven Traffic Forecasting)

    ICLR 2018 交通預(yù)測是一項具有挑戰(zhàn)的任務(wù) 對道路網(wǎng)絡(luò)的復(fù)雜空間依賴性 隨道路條件變化的非線性時間動態(tài) 長期預(yù)測的固有困難 ——將交通流建模為有向圖上的擴散過程 ——引入擴散卷積遞歸神經(jīng)網(wǎng)絡(luò) (DCRNN) 使用圖上的雙向隨機游走來捕獲空間依賴性 使用具有計劃采樣(sc

    2024年02月01日
    瀏覽(52)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包