AI 安全之对抗样本入门 (30):打造对抗样本工具箱 2.9

阅读数:7 2019 年 11 月 30 日 15:14

AI安全之对抗样本入门(30):打造对抗样本工具箱 2.9

(AdvBox)

内容简介
第 1 章介绍了深度学习的基础知识,重点介绍了与对抗样本相关的梯度、优化器、反向传递等知识点。
第 2 章介绍了如何搭建学习对抗样本的软硬件环境,虽然 GPU 不是必需的,但是使用 GPU 可以更加快速地验证你的想法。
第 3 章概括介绍了常见的深度学习框架,从 TensorFlow、Keras、PyTorch 到 MXNet。
第 4 章介绍了图像处理领域的基础知识,这部分知识对于理解对抗样本领域的一些常见图像处理技巧非常有帮助。
第 5 章介绍了常见的白盒攻击算法,从基础的 FGSM、DeepFool 到经典的 JSMA 和 CW。
第 6 章介绍了常见的黑盒攻击算法。
第 7 章介绍了对抗样本在目标识别领域的应用。
第 8 章介绍了对抗样本的常见抵御算法,与对抗样本一样,抵御对抗样本的技术也非常有趣。
第 9 章介绍了常见的对抗样本工具以及如何搭建 NIPS 2017 对抗防御环境和轻量级攻防对抗环境 robust-ml,通过这章读者可以了解如何站在巨人的肩膀上,快速生成自己的对抗样本,进行攻防对抗。

AdvBox 是一款由百度安全实验室研发,在百度大范围使用的 AI 模型安全工具箱,目前原生支持 PaddlePaddle、PyTorch、Caffe2、MxNet、Keras 以及 TensorFlow 平台,便于广大开发者和安全工程师使用自己熟悉的框架。AdvBox 同时支持 GraphPipe,屏蔽了底层使用的深度学习平台,用户可以零编码,仅通过几个命令就可以对 PaddlePaddle、PyTorch、Caffe2、MxNet、CNTK、ScikitLearn 以及 TensorFlow 平台生成的模型文件进行黑盒攻击。笔者也是 AdvBox 的主要贡献者。

AdvBox 的安装方式非常简单,直接从 GitHub 上同步即可:

复制代码
git clone https://github.com/baidu/AdvBox.git

类似的框架还有以下几个:

复制代码
https://github.com/bethgelab/foolbox
https://github.com/IBM/adversarial-robustness-toolbox
https://github.com/topics/cleverhans

AI安全之对抗样本入门(30):打造对抗样本工具箱 2.9

购书地址 https://item.jd.com/12532163.html?dist=jd

评论

发布