AI 安全之对抗样本入门 (19):深度学习基础知识 1.5

阅读数:9 2019 年 11 月 30 日 15:07

AI安全之对抗样本入门(19):深度学习基础知识 1.5

(集成学习)

内容简介
第 1 章介绍了深度学习的基础知识,重点介绍了与对抗样本相关的梯度、优化器、反向传递等知识点。
第 2 章介绍了如何搭建学习对抗样本的软硬件环境,虽然 GPU 不是必需的,但是使用 GPU 可以更加快速地验证你的想法。
第 3 章概括介绍了常见的深度学习框架,从 TensorFlow、Keras、PyTorch 到 MXNet。
第 4 章介绍了图像处理领域的基础知识,这部分知识对于理解对抗样本领域的一些常见图像处理技巧非常有帮助。
第 5 章介绍了常见的白盒攻击算法,从基础的 FGSM、DeepFool 到经典的 JSMA 和 CW。
第 6 章介绍了常见的黑盒攻击算法。
第 7 章介绍了对抗样本在目标识别领域的应用。
第 8 章介绍了对抗样本的常见抵御算法,与对抗样本一样,抵御对抗样本的技术也非常有趣。
第 9 章介绍了常见的对抗样本工具以及如何搭建 NIPS 2017 对抗防御环境和轻量级攻防对抗环境 robust-ml,通过这章读者可以了解如何站在巨人的肩膀上,快速生成自己的对抗样本,进行攻防对抗。

集成学习(Ensemble Learning)是使用一系列学习器进行学习,并使用某种规则把各个学习结果进行整合从而获得比单个学习器更好的学习效果的一种机器学习方法。如图 1-34 所示,集成学习的思路是在对新的实例进行分类的时候,把若干个单个分类器集成起来,通过对多个分类器的分类结果进行某种组合来决定最终的分类,以取得比单个分类器更好的性能。如果把单个分类器比作一个决策者的话,集成学习的方法就相当于多个决策者共同进行一项决策。如果使用的分类器相同,称为同质,反之则称为异质。综合判断的策略常见的有两种:加权平均和投票。

AI安全之对抗样本入门(19):深度学习基础知识 1.5

图 1-34 集成学习基本原理

集成学习粗略可以分为两类,第一类是个体学习器之间存在强依赖关系,一系列个体学习器基本都需要串行生成,代表算法是 Boosting 系列算法。第二类是个体学习器之间不存在强依赖关系,一系列个体学习器可以并行生成,代表算法是 Bagging 算法和随机森林(Random Forest)系列算法。本章以分类问题来介绍常见的 Boosting 算法和 Bagging 算法。

AI安全之对抗样本入门(19):深度学习基础知识 1.5

购书地址 https://item.jd.com/12532163.html?dist=jd

评论

发布