边缘检测

前面几层检测边缘,中间检测物体部分,后面检测完整物体:

filter/kernel, ’*’ 这里表示卷积运算 检测了中间竖线的边缘,卷积核表示竖左边是浅颜色,右边是深颜色边缘竖线

Padding

kernel:f*f 最后矩阵大小(n-f+1)*(n-f+1) (f一般是奇数 防止不对称过滤,且中间像素点会有帮助) padding: p 最后矩阵大小(n+2p-f+1)*(n+2p-f+1)

步长Stride

向下取整表示如果kernel未完全覆盖的部分不做计算:

三维卷积

每个channel 可以有不同的高和宽 :通道数 : filter个数 output最后一个维度是filter数量

单层卷积网络

每个filter有一个Bias

l:l层

简单卷积网络

最后展成一维向量,用softmax计算

池化层

缩减模型大小,提高计算速度,提高所提取特征的鲁棒性 相当于用f=2,s=2(hyper parameters)的filter,通常不用padding 作用:如果提取到某个特征,取他的最大值 但是no parameters to learn,因为固定了f,s 大量参数存在于fc nn中

一般随着深度增加,高和宽减少,通道数增加

Why 卷积

相比于fc, convolutional layer好处在于 参数共享 和 稀疏连接: 通过这两种方式减小参数量,当用小数据集训练时预防过拟合 还可以善于捕捉平移不变性(translation invariance)