論文標題:MGAE: Masked Autoencoders for Self-Supervised Learning on Graphs
論文作者:Qiaoyu Tan, Ninghao Liu, Xiao Huang, Rui Chen, Soo-Hyun Choi, Xia Hu
論文來源:2022, ArXiv
論文地址:download
論文程式碼:download
MAE 在圖上的應用。
整體框架:
本文的掩藏目標是隨機掩藏一部分(30%)邊,然後考慮 GCN、GraphSage 作為主幹網路提取特徵資訊,對於被掩藏的邊將通過 Decoder 訓練得到。
掩藏策略:
注意:上述兩種策略邊掩藏率是設定一樣的。
由於Encoder 採用的是基於訊息傳遞機制的 Encoder,所以最終只得到被保留部分的節點潛在嵌入。
Encoder $K$ 層傳播結構共生成的保留節點嵌入矩陣 $\left\{\mathbf{H}^{(1)}, \mathbf{H}^{(2)}, \cdots, \mathbf{H}^{(K)}\right\}$,對於存在的保留節點進行 cross-correlations 操作,即
$\mathbf{h}_{e_{v, u}}=\|_{k, j=1}^{K} \mathbf{h}_{v}^{(k)} \odot \mathbf{h}_{u}^{(j)}$
其中:
為避免過於複雜,通常 $K=2$。
假設剩餘的節點有 $m$ 個,那麼輸入到對應的 MLP Decoder 的將有 $m(m-1)$ (無向圖)個特徵向量,最終預測 $(u,v)$ 直接邊存在的概率通過下式生成:
$y_{v, u}=\operatorname{MLP}\left(\mathbf{h}_{v}^{(K)}, \mathbf{h}_{u}^{(K)}\right)$
MGAE解碼器,只重建掩碼的邊,目標函數如下:
$\mathcal{L}=-\sum\limits _{(v, u) \in \mathcal{E}_{\text {mask }}} \log \frac{\exp \left(\mathbf{y}_{v u}\right)}{\sum_{z \in \mathcal{V}} \exp \left(\mathbf{y}_{v z}\right)}$
為加速訓練,本文采用負取樣策略。
整體演演算法如下:
資料集
Link prediction
Node classifification
圖上邊掩碼AE。
2022-06-17 建立文章
因上求緣,果上努力~~~~ 作者:Learner-,轉載請註明原文連結:https://www.cnblogs.com/BlairGrowing/p/16386259.html