圖注意網(wǎng)絡(luò)Graph Attention Network
Leaky ReLU 有利于壓低負(fù)數(shù)對(duì)結(jié)局的影響。文章來源:http://www.zghlxwxcb.cn/news/detail-787399.html
圖注意網(wǎng)絡(luò)Graph Attention Network的流程
輸入向量
h
i
h_i
hi?乘上權(quán)重矩陣W得到對(duì)應(yīng)的向量
h
i
?
h_i^*
hi??,并將
h
i
?
h_i^*
hi??計(jì)算出對(duì)應(yīng)的
a
i
a_i
ai?,從而得到最終對(duì)結(jié)果向量的貢獻(xiàn)。
所以有
h
=
∑
i
h
i
?
?
a
i
h = \sum_i{h_i^{*}*a_i}
h=∑i?hi???ai?文章來源地址http://www.zghlxwxcb.cn/news/detail-787399.html
到了這里,關(guān)于圖神經(jīng)網(wǎng)絡(luò)|圖注意網(wǎng)絡(luò)Graph Attention Network的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!