
卷积网络理论基础:卷积运算和神经网络
下载需积分: 0 | 1.73MB |
更新于2024-08-05
| 166 浏览量 | 举报
收藏
卷积网络理论
卷积网络是一种专门用来处理具有类似网络结构的数据的神经网络,例如时间序列数据和图像数据。卷积网络指至少在网络的一层中使用卷积运算来替代一般的矩阵乘法运算的神经网络。
卷积运算是对两个实变函数的一种数学运算。设𝑥与𝑤是R上的两个可积函数,对于积分:𝑠(𝑡)=∫𝑥(𝑎)𝑤(𝑡−𝑎)𝑑𝑎,称该运算为卷积。卷积运算常用星号表示:𝑠(𝑡)=(𝑥∗𝑤)(𝑡)。
在卷积网络的术语中,卷积的第一个参数(函数𝑥)通常叫做输入(input),第二个参数(函数𝑤)叫做核函数(kernelfunction)。输出有时被称为特征映射(featuremap)。
定义离散形式的卷积运算:𝑠(𝑡)=(𝑥∗𝑤)(𝑡)=∑∞𝑎=−∞ 𝑥(𝑎)𝑤(𝑡−𝑎)。
在机器学习的应用中,输入通常是多维数组的数据,而核通常是由学习算法优化得到的多维数组的参数。我们把这些多维数组叫做张量。
卷积运算可以在多个维度上进行:例如在二维空间中,设输入为𝐼,二维核函数为𝐾,二维卷积运算:𝑆(𝑖,𝑗)=(𝐼∗𝐾)(𝑖,𝑗)=∑𝑚 ∑𝑛 𝐼(𝑚,𝑛)𝐾(𝑖−𝑚,𝑗−𝑛)。
卷积是可以交换(commutative)的,上式可等价写作:𝑆(𝑖,𝑗)=(𝐾∗𝐼)(𝑖,𝑗)=∑𝑚 ∑𝑛 𝐼(𝑖−𝑚,𝑗−𝑛)𝐾(𝑚,𝑛)。
卷积运算可交换性出现是因为将核相对输入进行了翻转(flip)。我们将核翻转的唯一目的是实现可交换性。许多神经网络库会实现一个相关的函数,称为互相关函数(cross-correlation),和卷积运算几乎一样但并没有对核进行翻转:𝑆(𝑖,𝑗)=(𝐼∗𝐾)(𝑖,𝑗)=∑𝑚 ∑𝑛 𝐼(𝑖+𝑚,𝑗+𝑛)𝐾(𝑚,𝑛)。
在机器学习中,学习算法会在核合适的位置学得恰当的值,所以一个基于核翻转的卷积运算的学习算法所学习到的核,是对未进行翻转的算法学得的核的翻转。
在机器学习中,卷积经常和其他函数一起使用,无论卷积运算是否对它的核进行翻转,这些函数的组合通常是不可交换的。
卷积网络的应用非常广泛,例如图像识别、自然语言处理、语音识别等等。卷积网络的优点是可以学习到数据中的空间结构和时间结构,且可以处理大量的数据。
相关推荐










无能为力就要努力
- 粉丝: 18
最新资源
- ASP.NET实现类似QQ许愿池效果
- 计算机图形学实验教程与代码实现解析
- 美观实用的最新ASP.NET论坛源码下载
- 新手友好:计算机网络基础教学课件
- JavaScript与Gridview的互动:实现行的移动与添加
- ASP.NET中的Flash效果图片上传组件
- 免安装的轻量级绿色WEB服务器
- CY7C68013固件开发:实现USB对单片机IO的控制
- VC解析XML数据:属性与节点元素的提取
- JAVA报表制作源码完整分享
- 51单片机模块设计:实例导航第二版
- 深入了解开源流媒体播放器icecast的使用
- 掌握exe4j:JAVA打包工具详解
- LINUX系统压缩包3006854文件解压指南
- JavaScript特效实现与应用案例解析
- 《商业英语会话》:商业人士必备的英语学习工具
- 深入浅出Java教程:语法特点与程序开发
- 串口编程专用测试小工具ComAssistant
- 掌握Web开发捷径:JavaScript实例自学手册及源代码
- 寻找vclskin的编辑器——Skin Builder 3.5发布
- VMWare下CentOS平台Oracle 11g RAC安装指南
- ASP.NET+js网上音乐共享播放器源码解析
- JBPM Eclipse插件3.1.5版本特性与应用
- Veritas Cluster 5.0 原厂培训资料完整解读