写点什么

“不正经”的卷积神经网络

  • 2019-12-05
  • 本文字数:1749 字

    阅读完需:约 6 分钟

“不正经”的卷积神经网络

卷积中的不变性

图像任务,都需要识别出图像中的主体,用于分类,检测,分割,比如下面的验证码识别。



但是同样的目标,在不同的图片中,会存在位置的偏移,角度的旋转,尺度的大小。卷积神经网络要能够应对这些情况,比如分类任务,对于同样的目标在不同图像中的偏移,旋转,尺度,要输出同样的结果。



这便是我们常说的旋转,平移,尺度不变性了


cnn 有这个能力吗?有。


前面我们说过 pooling,它有一定的平移不变性,而且网络越深,越强大。但是,它的这个能力仍然是有限的,受卷积核大小和感受野大小的约束。


尺度不变性和旋转不变性呢?很遗憾,几乎没有,不然 Hinton 也不会搞 capsule。


我们通常做的随机裁剪,旋转,缩放等操作,就是利用了 cnn 强大的学习能力,制造出了各种版本的图片供其学习。为了模型的鲁棒性,需要生成大量的数据。


一句话,网络模型对于物体几何形变的适应能力几乎完全来自于数据本身所具有的多样性。

为什么?

前面我们说了问题,那为什么会这样呢?因为 cnn 就没有显式地学习这些信息,而卷积操作本身具有非常固定的几何结构,标准的卷积操作是一个非常规矩的采样,通常是正方形。


那,能不能不规矩呢?首先我们看什么是不规矩,下图来自于【1】。



a 图大家很熟悉,标准的 3*3 卷积核,而 b,c,d 虽然也是 9 个采样点,但是每个采样点相对于中心点的偏移与 a 很不一样。b 是一个通用的展示,即完全没有规律。c,d 是 b 的特例。


我们将这样的卷积,称为(deformable convolutional networks)可变形卷积,笔者更喜欢称之为“不正经卷积”。


这种“不正经卷积”的特点,1 是采样视野大于对应版本的标准卷积(带孔卷积不算),2 是它的感受野是不规则的形状。

有什么好处?


我们看上面的一张图,假如我们有一个分割任务,要分割出图中的尺度不同的动物。


我们先看左边的图,标准的卷积,感受野必然是一个方方正正的区域。顶图有一个中心像素,它的感受野是 3*3,到了中间的图,周围四个角点又可以进一步扩展感受野,直到底部的图。


所以对于顶部目标的中心像素,经历了两次 33 卷积,它的感受野是固定的 55,与动物本身的形状并不匹配。而同样的两个 3*3 的卷积,右边的“不正经卷积”,则由于灵活的感受野,所覆盖的区域更大,也更匹配了目标本身的形状。


这是一个非常通用的问题,标准卷积对目标的形状感受野不够灵活,卷积的效率自然也就下降。而可变形卷积则利用了不规则可变化的形状,改善了这两个问题。

怎么实现?

可变形卷积这么灵活,实现起来麻烦吗?答案是不麻烦,只需要增加一个偏移量即可,具体来说看下图。



与标准卷积核相比,一个可变形卷积核,用于卷积的像素相对于中心像素各自的 x,y 方向上的偏移没有了规律,如果我们学习到了这个规律(实际就是用卷积核来记录它),就完成这件事情了。



实际实现就是多了一个 offset 层,通过 offset 输出通道数,我们可以控制要学习的变形的种类。当然,这个通道数一定是 2N 的,因为要同时记录 x 和 y 方向。

总结

做一个简单的总结,首先我们说说好处。(1)增加了网络的空间变形适应性,这也是网络要解决的本质问题。(2)不增加额外的标注信息和训练代价,仍然是原来的数据就可以训练,而且同时训练卷积系数和偏移量。(3)对于复杂的任务提升效果明显,具体的实验结果指标,可以至论文中看,也可以自己训着看。


坏处主要是增加了参数量与计算量,不过这个计算量其实不大,可以通过分组进行控制。


值得注意的是,可变形卷积并非是第一个研究这个问题的,在 STN【2】中,已经通过 Spatial Transformer Layer 来实现了对旋转平移缩放等信息的学习。Active Convolution,Atrous convolution 等都曾试图解决类似问题。


参考文献


【1】Dai J, Qi H, Xiong Y, et al. Deformable convolutional networks[J]. CoRR, abs/1703.06211, 2017, 1(2): 3.


【2】Jaderberg M, Simonyan K, Zisserman A. Spatial transformer networks[C]//Advances in neural information processing systems. 2015: 2017-2025.


作者介绍


言有三,真名龙鹏,曾先后就职于奇虎 360AI 研究院、陌陌深度学习实验室,6 年多计算机视觉从业经验,拥有丰富的传统图像算法和深度学习图像项目经验,拥有技术公众号《有三 AI》,著有书籍《深度学习之图像识别:核心技术与案例实战》。


原文链接


https://mp.weixin.qq.com/s/aLvlLi97JTd_cCfCZfraIg


2019-12-05 19:082393
用户头像
刘燕 InfoQ高级技术编辑

发布了 1123 篇内容, 共 602.5 次阅读, 收获喜欢 1982 次。

关注

评论

发布
暂无评论
发现更多内容

Spring系列:自动注入(autowire,redis笔记

Java 程序员 后端

SSM整合,kafka教程分享

Java 程序员 后端

ThreadLocal到底是什么?它解决了什么问题?,kalilinux渗透教程视频

Java 程序员 后端

Tomcat性能优化前后,有多大的差距,今天测试给大家看(1)

Java 程序员 后端

代码检查规则:Python语言案例详解

百度开发者中心

Python 方法论 学习笔记

Spring(二十),Java中级开发笔试题及答案

Java 程序员 后端

SQL 中判断条件的先后顺序,会引起索引失效么?,java虚拟机的原理

Java 程序员 后端

双11攻略来啦:参与Oracle VS openGauss 在线研讨,与盖国强老师、李国良教授面对面!

墨天轮

oracle opengauss 对话

SymmetricDS 数据库双向同步开源软件入门,我要自学网java基础百度云

Java 程序员 后端

ThreadLocal内存泄漏分析与解决方案,Java完全自学手册下载

Java 程序员 后端

Spring源码学习~循环依赖(面试必问系列,java最新框架技术

Java 程序员 后端

Spring(六)(1),mongodb入门书籍

Java 程序员 后端

SQL注入漏洞防护看这一篇就够了!,万字长文

Java 程序员 后端

Thymeleaf基本使用,java基础入门第二版第二章答案

Java 程序员 后端

Tomcat实现热部署、热加载原理解析,线程池底层实现原理

Java 程序员 后端

Spring注解驱动,java面试项目中遇到的问题

Java 程序员 后端

Spring的XML解析原理,这一次全搞懂再走!,springmybatis整合原理

Java 程序员 后端

技术+案例详解无监督学习Autoencoder

华为云开发者联盟

神经网络 算法 图片 无监督学习 Autoencoder

She Builds Summit | 感受她的科技力量!

亚马逊云科技 (Amazon Web Services)

开源 职场

ThreadLocal基本使用和内存泄漏分析,kafka性能调优

Java 程序员 后端

Tomcat各种网络异常场景解决方案及优化,基础+底层+算法+数据库

Java 程序员 后端

Spring(二),java基础面试题应届生

Java 程序员 后端

Spring(六),终于找到一个看得懂的JVM内存模型了

Java 程序员 后端

SQL语句基本语法及函数方法,java编程入门视频教程下载

Java 程序员 后端

质效中台助力实现质量度模型规模化落地

百度Geek说

架构 中台 测试 QA

Tomcat性能优化前后,有多大的差距,今天测试给大家看,linux视频教程推荐

Java 程序员 后端

Spring源码解析(二)AOP,java基础课程百度云

Java 程序员 后端

String Bean 注入方式,2021年Java程序员职业规划

Java 程序员 后端

Struts 学习笔记1 -Struts Framework 概览,BAT面试&高级进阶

Java 程序员 后端

Threadtear:一款多功能Java代码反混淆工具套件,小米java社招面试

Java 程序员 后端

ThreadLocal内存泄漏分析与解决方案(1),linux文件系统原理

Java 程序员 后端

“不正经”的卷积神经网络_AI&大模型_言有三_InfoQ精选文章