mindspore.ops.adaptive_max_pool2d

查看源文件
mindspore.ops.adaptive_max_pool2d(input, output_size, return_indices=False)[源代码]

对输入Tensor,提供二维自适应最大池化操作。即对于输入任何尺寸,指定输出的尺寸都为H * W。但是输入和输出特征的数目不会变化。

输入和输出数据格式可以是"NCHW"和"CHW"。N是批处理大小,C是通道数,H是特征高度,W是特征宽度。运算如下:

\[\begin{split}\begin{align} h_{start} &= floor(i * H_{in} / H_{out})\\ h_{end} &= ceil((i + 1) * H_{in} / H_{out})\\ w_{start} &= floor(j * W_{in} / W_{out})\\ w_{end} &= ceil((j + 1) * W_{in} / W_{out})\\ Output(i,j) &= {\max Input[h_{start}:h_{end}, w_{start}:w_{end}]} \end{align}\end{split}\]

说明

Ascend平台input参数仅支持float16类型。

参数:
  • input (Tensor) - adaptive_max_pool2d的输入,为三维或四维的Tensor,数据类型为float16、float32或者float64。

  • output_size (Union[int, tuple]) - 输出特征图的size。 output_size 可以为二元tuple表示 \((H, W)\)。或者是单个int表示 \((H, H)\)\(H\)\(W\) 可以是int或None,如果是None,则意味着输出的size与输入相同。

  • return_indices (bool) - 如果为 True ,输出最大值的索引,默认值为 False

返回:

Tensor,数据类型和维度与 input 相同。

异常:
  • TypeError - input 不是Tensor。

  • TypeError - input 中的数据不是float16、float32、float64。

  • TypeError - output_size 不是int或者tuple。

  • TypeError - return_indices 不是bool。

  • ValueError - output_size 是tuple,但大小不是2。

  • ValueError - input 的格式不是"CHW"或者"NCHW"。

支持平台:

Ascend GPU CPU

样例:

>>> import mindspore
>>> import numpy as np
>>> from mindspore import Tensor, ops
>>> # case 1: output_size=(None, 2)
>>> input = Tensor(np.array([[[[1.0, 2.0, 3.0], [4.0, 5.0, 6.0], [7.0, 8.0, 9.0]],
...                             [[1.0, 2.0, 3.0], [4.0, 5.0, 6.0], [7.0, 8.0, 9.0]],
...                             [[1.0, 2.0, 3.0], [4.0, 5.0, 6.0], [7.0, 8.0, 9.0]]]]), mindspore.float32)
>>> output = ops.adaptive_max_pool2d(input, (None, 2))
>>> print(output)
[[[[2. 3.]
   [5. 6.]
   [8. 9.]]
  [[2. 3.]
   [5. 6.]
   [8. 9.]]
  [[2. 3.]
   [5. 6.]
   [8. 9.]]]]
>>> # case 2: output_size=2
>>> output = ops.adaptive_max_pool2d(input, 2)
>>> print(output)
[[[[5. 6.]
   [8. 9.]]
  [[5. 6.]
   [8. 9.]]
  [[5. 6.]
   [8. 9.]]]]
>>> # case 3: output_size=(1, 2)
>>> output = ops.adaptive_max_pool2d(input, (1, 2))
>>> print(output)
[[[[8. 9.]]
  [[8. 9.]]
  [[8. 9.]]]]