mindspore_gl.nn.GlobalAttentionPooling
- class mindspore_gl.nn.GlobalAttentionPooling(gate_nn, feat_nn=None)[源代码]
将全局attention池应用于图表中的节点。 来自论文 Gated Graph Sequence Neural Networks 。
\[r^{(i)} = \sum_{k=1}^{N_i}\mathrm{softmax}\left(f_{gate} \left(x^{(i)}_k\right)\right) f_{feat}\left(x^{(i)}_k\right)\]- 参数:
gate_nn (Cell) - 用于计算每个特征的attention分数的神经网络。
feat_nn (Cell, 可选) - 在将每个特征与attention分数结合起来之前,应用于每个特征的神经网络。默认值:None。
- 输入:
x (Tensor) - 要更新的输入节点特征。Shape为 \((N, D)\) 其中 \(N\) 是节点数,\(D\) 是节点的特征大小。
g (BatchedGraph) - 输入图。
- 输出:
x (Tensor) - 图的输出表示。Shape为 \((2, D_{out})\) 其中 \(D_{out}\) 是节点的特征大小。
- 异常:
TypeError - 如果 gate_nn 类型或 feat_nn 类型不是mindspore.nn.Cell。
- 支持平台:
Ascend
GPU
样例:
>>> import numpy as np >>> import mindspore as ms >>> from mindspore_gl.nn import GlobalAttentionPooling >>> from mindspore_gl import BatchedGraphField >>> n_nodes = 7 >>> n_edges = 8 >>> src_idx = ms.Tensor([0, 2, 2, 3, 4, 5, 5, 6], ms.int32) >>> dst_idx = ms.Tensor([1, 0, 1, 5, 3, 4, 6, 4], ms.int32) >>> ver_subgraph_idx = ms.Tensor([0, 0, 0, 1, 1, 1, 1], ms.int32) >>> edge_subgraph_idx = ms.Tensor([0, 0, 0, 1, 1, 1, 1, 1], ms.int32) >>> graph_mask = ms.Tensor([1, 1], ms.int32) >>> batched_graph_field = BatchedGraphField(src_idx, dst_idx, n_nodes, n_edges, ver_subgraph_idx, ... edge_subgraph_idx, graph_mask) >>> node_feat = np.random.random((n_nodes, 4)) >>> node_feat = ms.Tensor(node_feat, ms.float32) >>> gate_nn = ms.nn.Dense(4, 1) >>> net = GlobalAttentionPooling(gate_nn) >>> ret = net(node_feat, *batched_graph_field.get_batched_graph()) >>> print(ret.shape) (2, 4)