less than 1 minute read

卷积网络资源

1 经典网络

模型 创新点 说明
LeNet 卷积(权值共享),池化 sigmoid
AlexNet softmax,Relu,Dropout,分组卷积,LRN  
VGG 小卷积 多个小卷积模拟大卷积,1*1 卷积
GoogLeNet 多分支  
ResNet 残差 应对网络退化问题;
PyramidNet 通道拼接 解决残差升维时效果不好的问题
DenseNet 多级残差,通道拼接  
DualPathNet Res+Dense:一部分用加法,剩下用拼接  

2 轻量型网络


TOP

附录

A 参考资料

B 经典网络

LeNet

最后三层 fc;
输入 32*32;

AlexNet

VGG

多个小卷积(3×3)模拟大卷积(7×7):参数量更少,非线性增加,表达能力更好;
卷积层不改变尺寸,靠 pooling;
拟合速度快;
1×1 卷积引入更多非线性;

GoogLeNet

亮点:参数量少,卷积并联(注重宽度);
Inception Module:

  • 多分支得到不同的感受野;
  • bottleneck:用1×1通道降维和复原;
  • 使用全局平均池化;

InceptionV2/3:
结合了 VGG;小卷积;1×k,k×1并联/串联

  • 避免用 pooling(表达瓶颈,引起能力下降);
  • 通道越多,信息越解耦,易局部处理,加速了拟合;
  • conv 前可以做通道压缩,表达能力变化不大;
  • 宽度深度要平衡;

Inceptionv4:结合了残差;

ResNet

残差:缩短反向传播路径,有效抑制梯度消失,解决网络退化问题(随着深度增加,误差升高);

PyramidNet

解决残差设计中遇到通道升维时效果不好的问题:用通道拼接代替1×1升维;或者去掉第一个激活函数,最后再来个 BN;

Darknet

去掉全连接,最后只用一层全局平均池化代替;
速度和精度达到较好的平衡;

DenseNet

残差通道拼接,多级残差;

DualPathNet

Categories: , ,

Updated:

Comments