mindspore_gl.nn.NNConv

class mindspore_gl.nn.NNConv(in_feat_size: int, out_feat_size: int, edge_embed, aggregator_type: str = 'sum', residual=False, bias=True)[源代码]

图卷积层。 来自论文 Neural Message Passing for Quantum Chemistry

\[h_{i}^{l+1} = h_{i}^{l} + \mathrm{aggregate}\left(\left\{ f_\Theta (e_{ij}) \cdot h_j^{l}, j\in \mathcal{N}(i) \right\}\right)\]

其中 \(f_\Theta\) 是一个具有可学习参数的函数。

参数:
  • in_feat_size (int) - 输入节点特征大小。

  • out_feat_size (int) - 输出节点特征大小。

  • edge_embed (mindspore.nn.Cell) - 边嵌入函数单元。

  • aggregator_type (str, 可选) - 聚合器的类型。默认值:’sum’。

  • residual (bool, 可选) - 是否使用残差。默认值:False。

  • bias (bool, 可选) - 是否使用偏置。默认值:True。

输入:
  • x (Tensor) - 输入节点特征。shape是 \((N,D\_in)\) 其中 \(N\) 是节点数, \(D\_in\) 可以是任何shape。

  • edge_feat (Tensor) - 边特征。shape是 \((N\_e,F\_e)\) 其中 \(N\_e\) 是边的数量, \(F\_e\) 是边特征的数量。

  • g (Graph) - 输入图。

输出:
  • Tensor,输出特征Shape为 \((N,D\_out)\) 其中 \(N\) 是节点数, \(D\_out\) 可以是任何shape。

异常:
  • TypeError - 如果 edge_embed 类型不是mindspore.nn.Cell或 aggregator_type 不是’sum’。

  • TypeError - 如果 in_feat_sizeout_feat_size 不是int。

  • TypeError - 如果 residualbias 不是bool。

支持平台:

Ascend GPU

样例:

>>> import mindspore as ms
>>> from mindspore_gl.nn import NNConv
>>> from mindspore_gl import GraphField
>>> n_nodes = 4
>>> n_edges = 7
>>> node_feat_size = 7
>>> edge_feat_size = 4
>>> src_idx = ms.Tensor([0, 1, 1, 2, 2, 3, 3], ms.int32)
>>> dst_idx = ms.Tensor([0, 0, 2, 1, 3, 0, 1], ms.int32)
>>> ones = ms.ops.Ones()
>>> node_feat = ones((n_nodes, node_feat_size), ms.float32)
>>> edge_feat = ones((n_edges, edge_feat_size), ms.float32)
>>> graph_field = GraphField(src_idx, dst_idx, n_nodes, n_edges)
>>> edge_func = ms.nn.Dense(edge_feat_size, 2)
>>> nnconv = NNConv(in_feat_size=node_feat_size, out_feat_size=2, edge_embed=edge_func)
>>> res = nnconv(node_feat, edge_feat, *graph_field.get_graph())
>>> print(res.shape)
(4, 2)