深度学习经典网络模型汇总4——ResNet

社区

🍊作者简介:秃头小苏,致力于用最通俗的语言描述问题

🍊专栏推荐:深度学习网络原理与实战

🍊近期目标:写好专栏的每一篇文章

🍊支持小苏:点赞👍🏼、收藏⭐、留言📩

 

ResNet

​     ResNet是2015年ILSVRC比赛冠军,在分类识别定位等各个赛道碾压之前的各种网络。重点是他的作者是中国人,何恺明大神!!!

​     我们先来谈谈之前深度学习网络中普遍存在的问题——随着网络层数的加深,网络训练结果并不能得到提升,反而会发生下降的问题,这种现象被称之为网络退化问题。具体可以参照下图,可以发现不管是在训练集还是在测试集,传统的网络层数增加后,错误率反而变大了。

picture.image

​    当发生网络退化问题后,人们一度认为深度学习就到这里为止了,直到ResNet的出现才解决了这一问题。ResNet的核心就是残差模块,下面主要来讲讲残差模块的设计。

​     在原论文中,残差路径可以大致分成2种,一种有bottleneck结构,即下图右中的1×11×1 卷积层,用于先降维再升维,主要出于降低计算复杂度的现实考虑,称之为“bottleneck block”,另一种没有bottleneck结构,如下图左所示,称之为“basic block”。basic block由2个3×33×3卷积层构成。

picture.image

​     其实ResNet最主要的就是上图的残差模块,上图会涉及到一个什么残差映射函数,F(x),H(x),我想看过ResNet的都知道有这么一回事,但是为什么是这样设计的可能都不是很清楚,我也没有弄明白这一块,网上也感觉说不清这回事,让我想到程序员就是炼丹师这句话,的确啊,有的神经网络里面的东西很奇妙,你不知道为什么!!!这里我就放上一个链接吧,看能不能看明白。ResNet详解——通俗易懂版

​     至于ResNet全部的结构如下:【以34层的作为代表】

img

​     其实搞明白我前文所说的那几种网络结构,知道了ResNet的残差模块,上图结构是很容易看懂的,都是一些残差模块的整合!!!

​     🥺🥺🥺好吧,感觉每次写到最后都会有一点偷懒,也许是最后的内容就自以为大家有了前面的基础了,就写的少了【好吧,是借口】太晚了,晚安🛌🏼🛌🏼🛌🏼

   

咻咻咻咻~~duang~~点个赞呗

0
0
0
0
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论