AI安全与隐私保护
概述
本篇主要介绍AI安全与隐私保护。AI作为一种通用技术,在带来巨大机遇和效益的同时也面临着新的安全与隐私保护的挑战。MindArmour是MindSpore的一个子项目,为MindSpore提供安全与隐私保护能力,主要包括对抗鲁棒性、模型安全测试、差分隐私训练、隐私泄露风险评估等技术。
对抗鲁棒性
Attack
Attack
基类定义了对抗样本生成的使用接口,其子类实现了各种具体的生成算法,支持安全工作人员快速高效地生成对抗样本,用于攻击AI模型,以评估模型的鲁棒性。
Defense
Defense
基类定义了对抗训练的使用接口,其子类实现了各种具体的对抗训练算法,增强模型的对抗鲁棒性。
Detector
Detector
基类定义了对抗样本检测的使用接口,其子类实现了各种具体的检测算法,增强模型的对抗鲁棒性。
详细内容,请参考对抗鲁棒性官网教程。
模型安全测试
Fuzzer
Fuzzer
类基于神经元覆盖率增益控制fuzzing流程,采用自然扰动和对抗样本生成方法作为变异策略,激活更多的神经元,从而探索不同类型的模型输出结果、错误行为,指导用户增强模型鲁棒性。
详细内容,请参考模型安全测试官网教程。
差分隐私训练
DPModel
DPModel
继承了mindspore.Model
,提供了差分隐私训练的入口函数。
详细内容,请参考差分隐私官网教程。
抑制隐私训练
SuppressModel
SuppressModel
继承了mindspore.Model
,提供了抑制隐私训练的入口函数。
详细内容,请参考抑制隐私官网教程。
隐私泄露风险评估
MembershipInference
MembershipInference
类提供了一种模型逆向分析方法,能够基于模型对样本的预测信息,推测某个样本是否在模型的训练集中,以此评估模型的隐私泄露风险。
详细内容,请参考隐私泄露风险评估官方教程。