传统的CNN为什么深度越深的时候效果不好,残差网络却可以克服这问题?

至少针对图像规模而言,首先一个共鸣就是:搜集越深了局越好,比方本年ILSVRC2015的MSRA秒天秒地的成效可见一斑。而传统的深层神经搜集是做不到这么深的,一个首要缘故原由就是剃度

本文最后更新时间:  2023-05-05 06:13:18

至少针对图像规模而言,首先一个共鸣就是:搜集越深了局越好,比方本年ILSVRC2015的MSRA秒天秒地的成效可见一斑。而传统的深层神经搜集是做不到这么深的,一个首要缘故原由就是剃度会弥散可能爆炸。怎么休止传统深层神经搜集中呈现的剃度弥散可能爆炸能够参照batch normalization等要领。今朝常用的深层神经搜集之以是比之前的好,如CNN,大年夜略说来就是:(1)权值共享使得模型越发大年夜略,泛化伎俩更强;(2)局部毗邻使得对feature的抽象历程大年夜大年夜裁减了对空间干系性对依靠,使得模型对样本的畸变不敏感(如改变、扭曲等)。然而从AlexNet到VGG,GoogleNet再到本年的MSRA能够看出,最主要的还是搜集能不能做到很深,传统神经搜集很难办到这点。

回答完毕,觉得还可以的话点个赞,关注下,去主页看看我的作品(跪谢了)另外祝条友们天天开心,身体健康,2018发发发!

温馨提示:内容均由网友自行发布提供,仅用于学习交流,如有版权问题,请联系我们。