mindspore

张量

mindspore.Tensor

张量,即存储多维数组(n-dimensional array)的数据结构。

mindspore.COOTensor

用来表示某一张量在给定索引上非零元素的集合,其中索引(indices)指示了每一个非零元素的位置。

mindspore.CSRTensor

用来表示某一张量在给定索引上非零元素的集合,其中行索引由 indptr 表示,列索引由 indices

mindspore.RowTensor

用来表示一组指定索引的张量切片的稀疏表示。

mindspore.SparseTensor

用来表示某一张量在给定索引上非零元素的集合。

参数

mindspore.Parameter

ParameterTensor 的子类,当它们被绑定为Cell的属性时,会自动添加到其参数列表中,并且可以通过Cell的某些方法获取,例如 cell.get_parameters()

mindspore.ParameterTuple

继承于tuple,用于管理多个Parameter。

数据类型

mindspore.dtype

创建一个MindSpore数据类型的对象。

mindspore.dtype_to_nptype

将MindSpore 数据类型转换成NumPy数据类型。

mindspore.issubclass_

判断 type_ 是否为 dtype 的子类。

mindspore.dtype_to_pytype

将MindSpore 数据类型转换为Python数据类型。

mindspore.pytype_to_dtype

将Python数据类型转换为MindSpore数据类型。

mindspore.get_py_obj_dtype

将Python数据类型转换为MindSpore数据类型。

随机种子

mindspore.set_seed

设置全局种子。

mindspore.get_seed

获取随机种子。

运行环境

mindspore.set_context

设置运行环境的context。

mindspore.get_context

根据输入key获取context中的属性值。

mindspore.set_auto_parallel_context

配置自动并行,仅在Ascend和GPU上有效。

mindspore.get_auto_parallel_context

根据key获取自动并行的配置。

mindspore.reset_auto_parallel_context

重置自动并行的配置为默认值。

mindspore.ParallelMode

并行模式。

mindspore.set_ps_context

设置参数服务器训练模式的上下文。

mindspore.get_ps_context

根据key获取参数服务器训练模式上下文中的属性值。

mindspore.reset_ps_context

将参数服务器训练模式上下文中的属性重置为默认值。

mindspore.set_algo_parameters

设置并行策略搜索算法中的参数。

mindspore.get_algo_parameters

获取算法参数配置属性。

mindspore.reset_algo_parameters

重置算法参数属性。

模型

mindspore.Model

模型训练或推理的高阶接口。

回调函数

mindspore.Callback

用于构建Callback函数的基类。

mindspore.CheckpointConfig

保存checkpoint时的配置策略。

mindspore.EarlyStopping

当监控的指标停止改进时停止训练。

mindspore.History

将网络输出和评估指标的相关信息记录到 History 对象中。

mindspore.LambdaCallback

用于自定义简单的callback。

mindspore.LearningRateScheduler

用于在训练期间更改学习率。

mindspore.LossMonitor

训练场景下,监控训练的loss;边训练边推理场景下,监控训练的loss和推理的metrics。

mindspore.ModelCheckpoint

checkpoint的回调函数。

mindspore.ReduceLROnPlateau

monitor 停止改进时降低学习率。

mindspore.RunContext

保存和管理模型的相关信息。

mindspore.TimeMonitor

监控训练或推理的时间。

数据处理工具

mindspore.DatasetHelper

DatasetHelper是一个处理MindData数据集的类,提供数据集信息。

mindspore.connect_network_with_dataset

networkdataset_helper 中的数据集连接。

混合精度

mindspore.LossScaleManager

使用混合精度时,用于管理损失缩放系数(loss scale)的抽象类。

mindspore.FixedLossScaleManager

损失缩放系数不变的管理器,继承自 mindspore.LossScaleManager

mindspore.DynamicLossScaleManager

动态调整损失缩放系数的管理器,继承自 mindspore.LossScaleManager

mindspore.build_train_network

构建混合精度训练网络。

序列化

mindspore.async_ckpt_thread_status

获取异步保存checkpoint文件线程的状态。

mindspore.build_searched_strategy

构建网络中每个参数的策略,用于分布式推理。

mindspore.convert_model

将MindIR模型转化为其他格式的模型文件。

mindspore.export

将MindSpore网络模型导出为指定格式的文件。

mindspore.load

加载MindIR文件。

mindspore.load_checkpoint

加载checkpoint文件。

mindspore.load_distributed_checkpoint

给分布式预测加载checkpoint文件到网络,用于分布式推理。

mindspore.load_param_into_net

将参数加载到网络中,返回网络中没有被加载的参数列表。

mindspore.merge_sliced_parameter

将参数切片合并为一个完整的参数,用于分布式推理。

mindspore.parse_print

解析由 mindspore.ops.Print 生成的数据文件。

mindspore.restore_group_info_list

从group_info_file_name指向的文件中提取得到通信域的信息,在该通信域内的所有设备的checkpoint文件均与存储group_info_file_name的设备相同,可以直接进行替换。

mindspore.save_checkpoint

将网络权重保存到checkpoint文件中。

调试调优

mindspore.Profiler

MindSpore用户能够通过该类对神经网络的性能进行采集。

mindspore.SummaryCollector

SummaryCollector可以收集一些常用信息。

mindspore.SummaryLandscape

SummaryLandscape可以帮助您收集loss地形图的信息。

mindspore.SummaryRecord

SummaryRecord用于记录summary数据和lineage数据。

mindspore.set_dump

启用或者禁用 target 及其子节点的Dump数据功能。

即时编译

mindspore.JitConfig

编译时所使用的JitConfig配置项。

mindspore.ms_function

将Python函数编译为一张可调用的MindSpore图。

mindspore.ms_class

用户自定义类的类装饰器。

mindspore.mutable

设置一个常量值为可变的。

日志

mindspore.get_level

获取日志记录器的级别。

mindspore.get_log_config

获取日志配置。

安装验证

mindspore.run_check

提供了便捷的API用以查询MindSpore的安装是否成功。

内存回收

mindspore.ms_memory_recycle

回收MindSpore使用的内存。

二阶优化

mindspore.ConvertModelUtils

该接口用于增加计算图,提升二阶算法THOR运行时的性能。

mindspore.ConvertNetUtils

将网络转换为thor层网络,用于计算并存储二阶信息矩阵。