mindspore.nn.EmbeddingLookup

class mindspore.nn.EmbeddingLookup(vocab_size, embedding_size, param_init='normal', target='CPU', slice_mode='batch_slice', manual_shapes=None, max_norm=None, sparse=True, vocab_cache_size=0)[源代码]

嵌入查找层。

与嵌入层功能相同,主要用于自动并行或半自动并行时,存在大规模嵌入层的异构并行场景。

说明

当’target’设置为’CPU’时,此模块将使用ops.EmbeddingLookup().set_device(‘CPU’),在lookup表指定了’offset = 0’。 当’target’设置为’DEVICE’时,此模块将使用ops.Gather(),在lookup表指定了’axis = 0’。 在字段切片模式下,必须指定manual_shapes。此tuple包含vocab[i]元素, vocab[i]是第i部分的行号。

参数:
  • vocab_size (int) - 嵌入词典的大小。

  • embedding_size (int) - 每个嵌入向量的大小。

  • param_init (Union[Tensor, str, Initializer, numbers.Number]) - embedding_table的初始化方法。当指定为字符串,字符串取值请参见类 Initializer 。默认值:’normal’。

  • target (str) - 指定执行操作的’target’。取值范围为[‘DEVICE’, ‘CPU’]。默认值:’CPU’。

  • slice_mode (str) - semi_auto_parallel或auto_parallel模式下的切片方式。该值必须通过 nn.EmbeddingLookup 获得。默认值:’nn.EmbeddingLookup.BATCH_SLICE’。

  • manual_shapes (tuple) - 字段切片模式下的伴随数组(accompaniment array),默认值:None。

  • max_norm (Union[float, None]) - 最大剪切值。数据类型必须为float16、float32或None。默认值:None。

  • sparse (bool) - 使用稀疏模式。当’target’设置为’CPU’时,’sparse’必须为True。默认值:True。

  • vocab_cache_size (int) - 嵌入字典的缓存大小。默认值:0。仅在训练模式和’DEVICE’目标中有效。相应优化器的力矩参数也将设置为缓存大小。此外需注意,它还会消耗’DEVICE’内存,因此建议合理设置参数值,避免内存不足。

输入:
  • input_indices (Tensor) - shape为 \((y_1, y_2, ..., y_S)\) 的Tensor。指定原始Tensor元素的索引。当取值超出embedding_table的范围时,超出部分在输出中填充为0。不支持负值,如果为负值,则结果未定义。在semi auto parallel或auto parallel模式下运行时,Input_indices只能是此接口中的二维Tensor。

输出:

Tensor,shape为 \((z_1, z_2, ..., z_N)\) 的Tensor。

异常:
  • TypeError - vocab_sizeembedding_sizevocab_cache_size 不是整数。

  • TypeError - sparse 不是bool或 manual_shapes 不是tuple。

  • ValueError - vocab_sizeembedding_size 小于1。

  • ValueError - vocab_cache_size 小于0。

  • ValueError - target 既不是’CPU’也不是’DEVICE’。

  • ValueError - slice_mode 不是’batch_slice’、’field_slice’、’table_row_slice’或’table_column_slice’。

  • ValueError - sparse 为False且 target 为’CPU’。

  • ValueError - slice_mode 为’field_slice’且 manual_shapes 是None。

支持平台:

Ascend GPU CPU

样例:

>>> input_indices = Tensor(np.array([[1, 0], [3, 2]]), mindspore.int32)
>>> result = nn.EmbeddingLookup(4,2)(input_indices)
>>> print(result.shape)
(2, 2, 2)