卷积神经网络的部分知识理解

为何要通过非线性化?由于没有激励函数的神经网络只能逼近线性的函数而不能逼近任意函数,
神经网络的本质实际上是一个参数待定的函数
卷积神经网络参数共享:
神经元用于链接数据窗的权重是固定的,这意味着,对同一个神经元而言,不论上一层数据窗口停留在哪一个位置,
链接二者之间的权重都是同一组数。那表明着,上面的例子中的卷积层,咱们只须要
神经元个数*数据窗口维度=96*11*11*3=34848个权重。

最多见的卷积神经网结构为:
[输入层] => [[ReLU卷积层]*N => [Pooling层]?]*M => [ReLU全链接层]*K => [全链接层]
过滤器:
这种图像某一部分与滤波器点乘后求和操做就是之后的卷积神经网络中的卷积操做,这样就获得了
通过滤波器过滤后的图像
若是图像的某一区域与过滤器检测的特征很类似,那么当过滤器通过该区域时,就会激活该过滤器,获得一个很高的值
卷积层各类参数的计算:
假设输入为:H1*W1*D1
1,如何计算feature map(特征图,输出数据体)的神经元个数H2*W2*D2:
原则:featur map的神经元个数是由滤波器尺寸F,个数K,步长S,是否补零决定的P!
W/H=[(输入大小-卷积核大小+2*P)/步长]  +1. 
H2=(H1-F+2P)/S +1
W2=(W1-F+2P)/S + 1
D2=K
2,参数个数:须要被训练的参数:也就是滤波器的参数:F*F*d*K+K
3,链接的个数:(F*F+1)*K*( H2*W2)
经过CNN学习后,咱们学习到的特征,是具备辨别性的特征,好比要咱们区分人脸和狗头, 那么经过CNN学习后,背景部位的激活度基本不多,咱们经过可视化就能够看到咱们提取 到的特征忽视了背景,而是把关键的信息给提取出来了。从 layer 一、layer 2学习到的 特征基本上是颜色、边缘等低层特征;layer 3则开始稍微变得复杂,学习到的是纹理特征, 好比上面的一些网格纹理;layer 4学习到的则是比较有区别性的特征,好比狗头; layer 5学习到的则是完整的,具备辨别性关键特征