mindspore_gl.nn.AGNNConv

查看源文件
class mindspore_gl.nn.AGNNConv(init_beta: float = 1.0, learn_beta: bool = True)[源代码]

基于Attention的图神经网络。来自论文 Attention-based Graph Neural Network for Semi-Supervised Learning

\[H^{l+1} = P H^{l}\]

计算 \(P\) :

\[P_{ij} = \mathrm{softmax}_i ( \beta \cdot \cos(h_i^l, h_j^l))\]

\(\beta\) 是单个标量参数。

参数:
  • init_beta (float,可选) - 初始化 \(\beta\) ,单个标量参数。默认值:1.0

  • learn_beta (bool,可选) - 是否 \(\beta\) 可学习。默认值:True

输入:
  • x (Tensor) - 输入节点特征。Shape为 \((N,*)\) ,其中 \(N\) 是节点数, \(*\) 可以是任何shape。

  • g (Graph) - 输入图表。

输出:
  • Tensor,输出节点特征,其中shape应与输入 x 相同。

异常:
  • TypeError - 如果 init_beta 不是float。

  • TypeError - 如果 learn_beta 不是bool。

支持平台:

Ascend GPU

样例:

>>> import mindspore as ms
>>> from mindspore_gl.nn import AGNNConv
>>> from mindspore_gl import GraphField
>>> n_nodes = 4
>>> n_edges = 8
>>> feat_size = 16
>>> src_idx = ms.Tensor([0, 0, 0, 1, 1, 1, 2, 3], ms.int32)
>>> dst_idx = ms.Tensor([0, 1, 3, 1, 2, 3, 3, 2], ms.int32)
>>> ones = ms.ops.Ones()
>>> feat = ones((n_nodes, feat_size), ms.float32)
>>> graph_field = GraphField(src_idx, dst_idx, n_nodes, n_edges)
>>> conv = AGNNConv()
>>> ret = conv(feat, *graph_field.get_graph())
>>> print(ret.shape)
(4, 16)