mindspore_gl.nn.AGNNConv
- class mindspore_gl.nn.AGNNConv(init_beta: float = 1.0, learn_beta: bool = True)[源代码]
基于Attention的图神经网络。来自论文 Attention-based Graph Neural Network for Semi-Supervised Learning 。
\[H^{l+1} = P H^{l}\]计算 \(P\) :
\[P_{ij} = \mathrm{softmax}_i ( \beta \cdot \cos(h_i^l, h_j^l))\]\(\beta\) 是单个标量参数。
- 参数:
init_beta (float,可选) - 初始化 \(\beta\) ,单个标量参数。默认值:
1.0
。learn_beta (bool,可选) - 是否 \(\beta\) 可学习。默认值:
True
。
- 输入:
x (Tensor) - 输入节点特征。Shape为 \((N,*)\) ,其中 \(N\) 是节点数, \(*\) 可以是任何shape。
g (Graph) - 输入图表。
- 输出:
Tensor,输出节点特征,其中shape应与输入 x 相同。
- 异常:
TypeError - 如果 init_beta 不是float。
TypeError - 如果 learn_beta 不是bool。
- 支持平台:
Ascend
GPU
样例:
>>> import mindspore as ms >>> from mindspore_gl.nn import AGNNConv >>> from mindspore_gl import GraphField >>> n_nodes = 4 >>> n_edges = 8 >>> feat_size = 16 >>> src_idx = ms.Tensor([0, 0, 0, 1, 1, 1, 2, 3], ms.int32) >>> dst_idx = ms.Tensor([0, 1, 3, 1, 2, 3, 3, 2], ms.int32) >>> ones = ms.ops.Ones() >>> feat = ones((n_nodes, feat_size), ms.float32) >>> graph_field = GraphField(src_idx, dst_idx, n_nodes, n_edges) >>> conv = AGNNConv() >>> ret = conv(feat, *graph_field.get_graph()) >>> print(ret.shape) (4, 16)