【2】卷积运算
说了那么久终于扯到了卷积二字!
但是!!胖友们!卷积神经网络和信号处理里面那个卷积运算!毛关系都没有啊!当初我还特意去复习了一下高数里的卷积运算!
这些!!都和我们的CNN没有关系!!!
(二稿修改:经知友提醒,此处的确说的不对,卷积神经网络在本质和原理上还是和卷积运算有一定的联系的,只是之前本人才疏学浅未能看出它们二者实质相关联的地方,若有误导之处还请各位谅解,抱歉!)
好了,下面继续讲怎么计算。四个字:对应相乘。看下图。
取 feature里的(1,1)元素值,再取图像上蓝色框内的(1,1)元素值,二者相乘等于1。把这个结果1填入新的图中。
同理再继续计算其他8个坐标处的值
9个都计算完了就会变成这样。
接下来的工作是对右图九个值求平均,得到一个均值,将均值填入一张新的图中。
这张新的图我们称之为 feature map (特征图)
可能有小盆友要举手问了,为什么蓝色框要放在图中这个位置呢?这只是个栗子嘛。 这个蓝色框我们称之为 “窗口”,窗口的特性呢,就是要会滑动。
其实最开始,它应该在起始位置。
进行卷积对应相乘运算并求得均值后,滑动窗便开始向右边滑动。根据步长的不同选择滑动幅度。比如,若 步长 stride=1,就往右平移一个像素。
若 步长 stride=2,就往右平移两个像素。
就这么移动到最右边后,返回左边,开始第二排。同样,若步长stride=1,向下平移一个像素;stride=2则向下平移2个像素。
[图片]
好了,经过一系列卷积对应相乘,求均值运算后,我们终于把一张完整的feature map填满了。
[图片]
feature map是每一个feature从原始图像中提取出来的“特征”。其中的值,越接近为1表示对应位置和feature的匹配越完整,越是接近-1,表示对应位置和feature的反面匹配越完整,而值接近0的表示对应位置没有任何匹配或者说没有什么关联。
一个feature作用于图片产生一张feature map,对这张X图来说,我们用的是3个feature,因此最终产生3个 feature map。
[图片]
至此,卷积运算的部分就讲完啦!~
请登录后评论~