mindarmour
MindArmour是MindSpore的工具箱,用于增强模型可信,实现隐私保护机器学习。
- class mindarmour.Attack[源代码]
所有通过创建对抗样本的攻击类的抽象基类。
对抗样本是通过向原始样本添加对抗噪声来生成的。
- class mindarmour.BlackModel[源代码]
将目标模型视为黑盒的抽象类。模型应由用户定义。
- class mindarmour.Detector[源代码]
所有对抗样本检测器的抽象基类。
- abstract detect(inputs)[源代码]
从输入样本中检测对抗样本。
- 参数:
inputs (Union[numpy.ndarray, list, tuple]) - 要检测的输入样本。
- 异常:
NotImplementedError - 抽象方法未实现。
- abstract detect_diff(inputs)[源代码]
计算输入样本和去噪样本之间的差值。
- 参数:
inputs (Union[numpy.ndarray, list, tuple]) - 要检测的输入样本。
- 异常:
NotImplementedError - 抽象方法未实现。
- class mindarmour.Defense(network)[源代码]
所有防御类的抽象基类,用于防御对抗样本。
- 参数:
network (Cell) - 要防御的MindSpore风格的深度学习模型。