MindSpore Armour 文档 ========================= MindSpore Armour是一款安全与隐私保护工具,提供AI模型安全测评、模型混淆、隐私数据保护等能力。 AI作为一种通用技术,在带来巨大机遇和效益的同时也面临着新的安全与隐私保护的挑战。MindSpore Armour通过对抗鲁棒性、模型安全测试、差分隐私训练、隐私泄露风险评估、数据漂移检测等技术,实现对MindSpore的安全与隐私保护。 .. raw:: html 代码仓地址: 使用MindSpore Armour的典型场景 ------------------------------ 1. `对抗样本 `_ 涵盖黑白盒对抗攻击、对抗训练、对抗样本检测等能力,帮助安全工作人员快速高效地生成对抗样本,评测AI模型的鲁棒性。 2. `隐私泄漏风险评估 `_ 通过成员推理攻击、模型逆向攻击等算法,用于评估模型隐私泄漏的风险。 3. `隐私保护 `_ 通过差分隐私训练、抑制隐私保护机制,减少模型隐私泄漏的风险,从而保护用户数据。 4. `可靠性 `_ 通过多种数据漂移检测算法,及时发现数据分布变化,提前预测模型失效征兆,对AI模型的及时调整具有重要意义。 5. `Fuzz `_ 基于覆盖率的Fuzzing测试流程,灵活可定制的测试策略和指标;通过神经元覆盖率来指导输入变异,让输入能够激活更多的神经元,神经元值的分布范围更广,从而探索不同类型的模型输出结果、错误行为。 6. `模型加密 `_ 通过加密对模型文件进行保护的功能,使用对称加密算法对参数文件或推理模型进行加密,使用时直接加载密文模型完成推理或增量训练。 7. `模型动态混淆 `_ 使用控制流混淆算法对AI模型的结构进行改造混淆,使得混淆后的模型即使被窃取,也不会泄露真实的结构和权重。加载混淆模式时只要传入正确的密码或者自定义函数,就能正常使用模型进行推理,且推理结果精度无损。 .. toctree:: :glob: :maxdepth: 1 :caption: 安装部署 mindarmour_install .. toctree:: :glob: :maxdepth: 1 :caption: AI安全 improve_model_security_nad test_model_security_fuzzing evaluation_of_CNNCTC model_encrypt_protection dynamic_obfuscation_protection .. toctree:: :glob: :maxdepth: 1 :caption: AI隐私 protect_user_privacy_with_differential_privacy protect_user_privacy_with_suppress_privacy test_model_security_membership_inference .. toctree:: :glob: :maxdepth: 1 :caption: AI可靠性 concept_drift_time_series concept_drift_images fault_injection .. toctree:: :maxdepth: 1 :caption: API参考 mindarmour mindarmour.adv_robustness.attacks mindarmour.adv_robustness.defenses mindarmour.adv_robustness.detectors mindarmour.adv_robustness.evaluations mindarmour.fuzz_testing mindarmour.natural_robustness.transform.image mindarmour.privacy.diff_privacy mindarmour.privacy.evaluation mindarmour.privacy.sup_privacy mindarmour.reliability mindarmour.utils .. toctree:: :glob: :maxdepth: 1 :caption: 参考文档 design differential_privacy_design fuzzer_design security_and_privacy faq .. toctree:: :glob: :maxdepth: 1 :caption: RELEASE NOTES RELEASE