論文解讀(MaskGAE)《MaskGAE: Masked Graph Modeling Meets Graph Autoencoders》

2022-07-25 12:01:13

論文資訊

論文標題:MaskGAE: Masked Graph Modeling Meets Graph Autoencoders
論文作者:Jintang Li, Ruofan Wu, Wangbin Sun, Liang Chen, Sheng Tian......
論文來源:2022,arXiv
論文地址:download 
論文程式碼:download

1 Introduction

   MAE 在圖上的應用——2022 最潮的方法。

2 Related work and Motivation

2.1 GAE 

  GAEs採用了經典的編碼器-解碼器框架,旨在通過優化以下二進位制交叉熵損失,從編碼圖的低維表示中進行解碼:

    $\mathcal{L}_{\mathrm{GAEs}}=-\left(\frac{1}{\left|\mathcal{E}^{+}\right|} \sum\limits _{(u, v) \in \mathcal{E}^{+}} \log h_{\omega}\left(z_{u}, z_{v}\right)+\frac{1}{\left|\mathcal{E}^{-}\right|} \sum\limits _{\left(u^{\prime}, v^{\prime}\right) \in \mathcal{E}^{-}} \log \left(1-h_{\omega}\left(z_{u^{\prime}}, z_{v^{\prime}}\right)\right)\right)$

  其中,$\mathcal{z}$ 代表低維隱表示,$f_{\theta}$ 代表引數為  $\theta$ 的 GNN encoder,$h_{\omega}$ 代表引數為  $\omega$ 的 GNN decoder,$\mathcal{E}^{+}$ 代表  positive edges ,$\mathcal{E}^{-}$ 代表 negative edges 。

2.2 Motivation

  按照互資訊的思想:希望最大化 k-hop 節點對子圖之間的一致性,但是伴隨著 $K$ 值變大,過平滑的問題越發明顯,此時子圖大小對節點表示的學習不利。因此有:

  Proposition 1:
  

   分析了一堆廢話................

  後面呢,必然出現解決過平滑的策略。

  Recall:解決過平湖的策略

    • 殘差;
    • 譜圖理論;
    • 多尺度資訊;
    • 邊刪除;

3 Method:MaskGAE 

  我們提出了 MGM 代理任務的 MaskGAE 框架:

  

  出發點:MGM

    $\mathcal{G}_{\text {mask }} \cup   \mathcal{G}_{\text {vis }}=\mathcal{G}$

    $\mathcal{G}_{\text {mask }}=   \left(\mathcal{E}_{\text {mask }}, \mathcal{V}\right)$

3.1 Masking strategy

Edge-wise random masking $(\mathcal{T}_{\text {edge }}$

    $\mathcal{E}_{\text {mask }} \sim \operatorname{Bernoulli}(p)$

Path-wise random masking $(\mathcal{T}_{\text {path}}$

    $\mathcal{E}_{\text {mask }} \sim \operatorname{Random} \operatorname{Walk}\left(\mathcal{R}, n_{\text {walk }}, l_{\text {walk }}\right)$

  其中,$\mathcal{R} \subseteq \mathcal{V}$ 是從圖中取樣的一組根節點,$n_{\text {walk }}$ 為每個節點的行走次數,$l_{\text {walk }}$ 為行走長度。

  在這裡,我們遵循度分佈,抽樣了一個節點的子集(例如,50%),沒有替換作為根節點 $\mathcal{R}$。這樣的取樣也可以防止圖中存在的潛在的長尾偏差(即,更多的遮蔽邊是那些屬於高度節點的邊)。

3.2 Encoder

  • GCN Encoder    
  • SAGE Encoder
  • GAT Encoder

3.2 Decoder

Structure decoder

    $​h_{\omega}\left(z_{i}, z_{j}\right)=\operatorname{Sigmoid}\left(z_{i}^{\mathrm{T}} z_{j}\right)$

    $​h_{\omega}\left(z_{i}, z_{j}\right)=\operatorname{Sigmoid}\left(\operatorname{MLP}\left(z_{i} \circ z_{j}\right)\right)$

Degree decoder

    $g_{\phi}\left(z_{v}\right)=\operatorname{MLP}\left(z_{v}\right)$

3.3 Learning objective

  損失函數包括:

    • Reconstruction loss:計算的是掩碼邊 $\mathcal{E}^{+}=\mathcal{E}_{\text {mask }}$   的重構損失;
    • Regression loss:衡量的是節點度的預測與掩蔽圖中原始節點度的匹配程度:

       $\mathcal{L}_{\mathrm{deg}}=\frac{1}{|\mathcal{V}|} \sum\limits _{v \in \mathcal{V}}\left\|g_{\phi}\left(z_{v}\right)-\operatorname{deg}_{\text {mask }}(v)\right\|_{F}^{2}$

  其中,$\operatorname{deg}_{\text {mask }}$ 代表的是掩碼圖 $\mathcal{G}_{\text {mask }}$ 的節點度。

  因此,總體損失為:

    $\mathcal{L}=\mathcal{L}_{\mathrm{GAEs}}+\alpha \mathcal{L}_{\mathrm{deg}}$

4 Experiments

Link prediction

  

node classifification 
  

5 Conclusion

  在這項工作中,我們首次研究了掩蔽圖建模(MGM),並提出了MaskGAE,一個基於理論基礎的自我監督學習框架,以 MGM 作為一個有原則的藉口任務。我們的工作在理論上是基於以下理由:(i)氣體本質上是對比學習,使與連結邊相關的配對子圖檢視之間的互資訊最大化;(ii)MGM可以有利於互資訊最大化,因為掩蔽顯著減少了兩個子圖檢視之間的冗餘。特別是,我們還提出了一種路徑掩蔽策略,以促進米高梅的任務。在我們的實驗中,MaskGAE 比 GAE 表現出顯著改善的效能,並且在鏈路預測和節點分類基準上與強基線相當或更好。