从应用方面上来看,CNN用到做图像识别比较多,而RNN在做到语言处理多一点,如果拿来比喻的话,CNN如同眼睛一样,正是目前机器用来识别对象的图像处理器。相应地,RNN则是用于解析语言模式的数学引擎,就像耳朵和嘴巴。
对于CNN神经网络,有一个基础的假设——人类的视觉总是会关注视线内特征最明显的点
RNN的假设——事物的发展是按照时间序列展开的,即前一刻发生的事物会对未来的事情的发展产生影响。
CNN
1.结构层次
卷积神经网络主要分数据输入层(Input Layer)、卷积计算层(CONV Layer)、ReLU激励层(ReLU Layer)、池化层(Pooling Layer)、全连接层(FC Layer)五个层次,这五个层次都是依次相连,每一层都接受上一层的输出特征数据来提供给下一层。其中数据输入层是对输入数据的特征进行提取;卷积计算层是对这些特征进行卷积映射;激励层是利用非线性激励函数对神经元进行激励达到条件将特征信息传递到下一个神经元;池化层则是用来压缩数据和参数的量,从而减小过拟合情况;全连接层就是连接所有输出层的特征信息,并对这些信息进行汇总整理完成输出。
1.1输入层
和神经网络/机器学习一样,都需要对输入的数据进行预处理操作,以便于后面的层对数据的操作。
1.2卷积计算层
在将卷积层之前,首先大致了解下卷积神经网络。卷积神经网络是保存了层级的网络结构,以至于使得不同的层次有不同的形式或者运算与功能。而卷积神经网络是主要适用于图片信息处理的场景,而卷积层就是识别图像中一个最为关键的步骤或者层级。类似人的大脑在识别图片的过程中,不同的脑皮质层会处理来自不同方面的数据,例如颜色、形状等,然后通过不同皮质层的处理结果进行合并并且映射操作,从而得出最终的结果。也就是说第一部分实质上是一个局部的观察结果,第二部分是一个整体的结果合并。因此卷积神经网络就是基于人的大脑识别图片的过程,每个神经元就没有必要对全局的图像进行感知,只需要对局部的图像进行感知即可,最后在更高层次对局部的信息进行综合操作得出全局的