mindspore_xai.tool
CV类工具。
- class mindspore_xai.tool.cv.OoDNet(underlying, num_classes)[源代码]
分布外检测网络。
OoDNet需要一个下游分类器,并会输出样本的分布外分数。
说明
为了给出正确的分布外分数,OoDNet需要使用分类器的训练数据集来进行训练。
- 参数:
underlying (Cell) - 下游分类器,它必须具有 num_features (int)和 output_features (bool)的属性,具体详情请参见样例。
num_classes (int) - 分类器的类数。
- 返回:
Tensor,如果 set_train(True) 被调用,将返回分类logits。而如果 set_train(False) 被调用,返回分布外分数。返回的shape均为 \((N, L)\) ,L 是类数。
- 异常:
TypeError - 参数或输入类型错误。
ValueError - 输入值错误。
AttributeError - underlying 缺少必需的属性。
- 支持平台:
Ascend
GPU
样例:
>>> import numpy as np >>> import mindspore as ms >>> from mindspore import nn, set_context, PYNATIVE_MODE >>> from mindspore_xai.tool.cv import OoDNet >>> from mindspore.common.initializer import Normal >>> >>> >>> class MyLeNet5(nn.Cell): ... def __init__(self, num_class, num_channel): ... super(MyLeNet5, self).__init__() ... ... # must add the following 2 attributes to your model ... self.num_features = 84 # no. of features, int ... self.output_features = False # output features flag, bool ... ... self.conv1 = nn.Conv2d(num_channel, 6, 5, pad_mode='valid') ... self.conv2 = nn.Conv2d(6, 16, 5, pad_mode='valid') ... self.relu = nn.ReLU() ... self.max_pool2d = nn.MaxPool2d(kernel_size=2, stride=2) ... self.flatten = nn.Flatten() ... self.fc1 = nn.Dense(16 * 5 * 5, 120, weight_init=Normal(0.02)) ... self.fc2 = nn.Dense(120, self.num_features, weight_init=Normal(0.02)) ... self.fc3 = nn.Dense(self.num_features, num_class, weight_init=Normal(0.02)) ... ... def construct(self, x): ... x = self.conv1(x) ... x = self.relu(x) ... x = self.max_pool2d(x) ... x = self.conv2(x) ... x = self.relu(x) ... x = self.max_pool2d(x) ... x = self.flatten(x) ... x = self.relu(self.fc1(x)) ... x = self.relu(self.fc2(x)) ... ... # return the features tensor if output_features is True ... if self.output_features: ... return x ... ... x = self.fc3(x) ... return x >>> >>> set_context(mode=PYNATIVE_MODE) >>> # prepare classifier >>> net = MyLeNet5(10, num_channel=3) >>> # prepare OoD network >>> ood_net = OoDNet(net, 10) >>> inputs = ms.Tensor(np.random.rand(1, 3, 32, 32), ms.float32) >>> ood_map = ood_net(inputs) >>> print(ood_map.shape) (1, 10)
- construct(x)[源代码]
向前推理分类logits或分布外分数。
- 参数:
x (Tensor) - 下游分类器的输入。
- 返回:
Tensor,如果 set_train(True) 被调用,将返回logits of softmax with temperature。而如果 set_train(False) 被调用,返回分布外分数。返回的shape均为 \((N, L)\) ,L 是类数。
- get_train_parameters(train_underlying=False)[源代码]
获取训练参数。
- 参数:
train_underlying (bool, 可选) - 如需包含下游分类器的参数,请设置为
True
。默认值:False
。
- 返回:
list[Parameter],训练参数。
- property num_classes
获取类的数量。
- 返回:
int,类的数量。
- prepare_train(learning_rate=0.1, momentum=0.9, weight_decay=0.0001, lr_base_factor=0.1, lr_epoch_denom=30, train_underlying=False)[源代码]
准备训练参数。
- 参数:
learning_rate (float, 可选) - 优化器的学习率。默认值:
0.1
。momentum (float, 可选) - 优化器的Momentum。默认值:
0.9
。weight_decay (float, 可选) - 优化器的权重衰减。默认值:
0.0001
。lr_base_factor (float, 可选) - 学习率调度器的基本比例因子。默认值:
0.1
。lr_epoch_denom (int, 可选) - 学习率调度器的epoch分母。默认值:
30
。train_underlying (bool, 可选) - 如需训练下游分类器,请设置为
True
。默认值:False
。
- 返回:
Optimizer,优化器。
LearningRateScheduler,学习率调度器。
- train(dataset, loss_fn, callbacks=None, epoch=90, optimizer=None, scheduler=None, **kwargs)[源代码]
训练分布外网络。
- 参数:
dataset (Dataset) - 训练数据集,预期格式为(数据, one-hot标签)。
loss_fn (Cell) - loss 函数,如果分类器选择的激活函数是 nn.Softmax,请使用 nn.SoftmaxCrossEntropyWithLogits,而如果选择的是 nn.Sigmod,则使用 nn.BCEWithLogitsLoss。
callbacks (Callback, 可选) - 训练时的回调。默认值:
None
。epoch (int, 可选) - 训练时的epoch数量。默认值:
90
。optimizer (Optimizer, 可选) - 优化器。如果设置为
None
,将使用 prepare_train() 预定义的参数。默认值:None
。scheduler (LearningRateScheduler, 可选) - 学习率调度器。如果设置为
None
,将使用 prepare_train() 预定义的参数。默认值:None
。**kwargs (any, 可选) - 在 prepare_train() 定义的关键参数。
- property underlying
获取下游分类器。
- 返回:
nn.Cell,下游分类器。