VGGNet
论文: VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION
本文仅记录个人阅读论文的收获和思考。
INTRODUCTION
论文主要探究深度对卷积神经网络的影响.
CONVNET CONFIGURATIONS
1
VGG用多层3*3
的最小kernel
, 单纯从卷积计算的角度来看, 多个卷积层的叠加意义不大(两层3*3
相当于一层5*5
, 以此类推).
用多个最小的卷积层的意义, 一是中间可以穿插非线性激活函数层, 另一个是减少参数.
2
1*1
的卷积层, 相当于做了一次线性变换和非线性激活.
似乎在 Network In Network
论文中提到.
CLASSIFICATION FRAMEWORK
1
用到的技术:
- 小批量梯度下降, momentum 0.9
- $L_2$权重衰减
dropout
- 动态调整学习率
2
为了获得合适的初始权重, 先训练简单的模型, 然后用其参数作为初始权重.
3
训练时网络输入图片的尺寸为224*224
, 但对图片的裁剪的尺寸S
不小于224
, 从而由一张图片产生多个输入数据, 类似AlexNet
论文中的数据增强。
同时, S
可以根据需要动态调整。 一般来说是先小后大。
4
测试阶段用全连接卷积层代替全连接线性层, 如此以来输入图片的尺寸则不必与训练过程相同。
结果得到1000张特征图, 对其进行平均池化得到对应分数。
CLASSIFICATION EXPERIMENTS
1
先对小规模网络进行训练, 修正其中问题(去除LRU层), 然后再加深层数。
2
通过对比(将两个3*3
卷积层替换为一个5*5
卷积层), 证明加深层数确实能提高准确率。