mindspore.nn.AdaptiveMaxPool2d
- class mindspore.nn.AdaptiveMaxPool2d(output_size, return_indices=False)[源代码]
对输入Tensor,提供二维自适应最大池化操作。对于输入任何格式,指定输出的格式都为H * W。但是输入和输出特征的数目不会变化。
输入和输出数据格式可以是”NCHW”和”CHW”。N是批处理大小,C是通道数,H是特征高度,W是特征宽度。运算如下:
\[\begin{split}\begin{align} h_{start} &= floor(i * H_{in} / H_{out})\\ h_{end} &= ceil((i + 1) * H_{in} / H_{out})\\ w_{start} &= floor(j * W_{in} / W_{out})\\ w_{end} &= ceil((j + 1) * W_{in} / W_{out})\\ Output(i,j) &= {\max Input[h_{start}:h_{end}, w_{start}:w_{end}]} \end{align}\end{split}\]说明
Ascend平台input输入仅支持float16类型。
- 参数:
output_size (Union[int, tuple]) - 输出特征图的size。 output_size 可以为二元tuple表示 \((H, W)\)。或者是单个int表示 \((H, H)\) 。 \(H\) 和 \(W\) 可以是int或None,如果是None,则意味着输出的size与输入相同。
return_indices (bool) - 如果为True,输出最大值的索引,默认值为False。
- 输入:
input (Tensor) - AdaptiveMaxPool2d的输入,为三维或四维的Tensor,数据类型为float16、float32或者float64。
- 输出:
Tensor,数据类型与 input 相同。 输出的shape为 input_shape[:len(input_shape) - len(out_shape)] + out_shape 。
- 异常:
TypeError - input 不是Tensor。
TypeError - input 中的数据不是float16, float32, float64.
TypeError - output_size 不是int或者tuple。
TypeError - return_indices 不是bool。
ValueError - output_size 是tuple,但大小不是2。
ValueError - input 的维度不是CHW或者NCHW。
- 支持平台:
Ascend
GPU
CPU
样例:
>>> # case 1: output_size=(None, 2) >>> input = Tensor(np.array([[[[1.0, 2.0, 3.0], [4.0, 5.0, 6.0], [7.0, 8.0, 9.0]], ... [[1.0, 2.0, 3.0], [4.0, 5.0, 6.0], [7.0, 8.0, 9.0]], ... [[1.0, 2.0, 3.0], [4.0, 5.0, 6.0], [7.0, 8.0, 9.0]]]]), mindspore.float32) >>> adaptive_max_pool_2d = nn.AdaptiveMaxPool2d((None, 2)) >>> output = adaptive_max_pool_2d(input) >>> print(output) [[[[2. 3.] [5. 6.] [8. 9.]] [[2. 3.] [5. 6.] [8. 9.]] [[2. 3.] [5. 6.] [8. 9.]]]] >>> # case 2: output_size=2 >>> adaptive_max_pool_2d = nn.AdaptiveMaxPool2d(2) >>> output = adaptive_max_pool_2d(input) >>> print(output) [[[[5. 6.] [8. 9.]] [[5. 6.] [8. 9.]] [[5. 6.] [8. 9.]]]] >>> # case 3: output_size=(1, 2) >>> adaptive_max_pool_2d = nn.AdaptiveMaxPool2d((1, 2)) >>> output = adaptive_max_pool_2d(input) >>> print(output) [[[[8. 9.]] [[8. 9.]] [[8. 9.]]]]