
深度学习
不要陷入不同网络架构的理论中,或者纠结网络中各层的顺序,更注重实践,通过实验来回答你的问题,而不是苦思冥想,如果实验结果一开始并不理想,也不用垂头丧气,坚持做下去,直到找到适合解决问题的网络和超参数。
科学边界
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
配置jupyter notebook在局域网中访问
1.生产配置文件 jupyter notebook --generate-config 2.生产密码 jupyter notebook password 显示:Enter password: **** Verify password: **** 将生成的密钥拷贝配置文件 echo "c.NotebookApp.password = 'sha1:***************'" >> ~/.jupyter/jupyter_notebook_config.py 3.设置访问IP echo "原创 2021-07-22 20:09:50 · 1215 阅读 · 1 评论 -
深度学习06: 常用激活函数总结(sigmod,tanh,Relu等)
深度学习中几种常见的激活函数理解与总结 https://www.cnblogs.com/XDU-Lakers/p/10557496.html 神经网络梯度消失和梯度爆炸及解决办法 https://blog.csdn.net/program_developer/article/details/80032376 这文章详细分析了几个激活函数优缺点,值得分享; 饱和激活函数: sigmod: 优点: 提供非线性激活函数 缺点: 1.sigmoid函数饱和,使梯度消失; 2.sigmoid函数输出不是零中心(zer原创 2020-06-01 14:41:57 · 1089 阅读 · 0 评论 -
深度学习05: 谷歌Inception网络解读
构建卷积层时,你要决定卷积核的大小究竟是 1×1,3×3 还 是 5×5,或者要不要添加池化层。而 Inception 网络的作用就是代替你来决定,虽然网络架 构因此变得更加复杂,但网络表现却非常好. 1.Inception基本思想: 同时添加多个滤波器,将每个滤波器输出叠加一起,作为总输出,让网络自己学习它需要什么样的参数,采用哪些过滤器组合。 注:多个滤波器输出的维度应该相同;比如MAX-POOL采取特殊的池化层,保证输出维度28x28 缺点:显而易见,Inceptin网络计算量非常庞大; 以5x5卷原创 2020-05-09 16:43:41 · 583 阅读 · 0 评论 -
深度学习04: 残差网络ResNet解读
非常深的网络是很难训练的,因为存在梯度消失和梯度爆炸的问题; 由于网络太深,反向传播求导相乘项较多,当激活函数导数小于1,且初始权重不大时,过多的小数项(0~1.0)相乘结果趋于0,导致梯度消失; 当初始权重较大,激活函数接近1,这时容易导致梯度爆炸; 远眺链接:可以从某一网络层获取激活,然后迅速反馈给另外一层,甚至是神经网络的更深层; 利用远眺链接构建能够训练深度网络ResNets,有时超过100层; 残差块 将a[l]a^{[l]}a[l]直接向后拷贝到网络深层,a[l+2]a^{[l+2]}a[l+原创 2020-05-09 16:39:55 · 851 阅读 · 0 评论 -
深度学习03: CNN经典网络LeNet, AlexNet, VGG-16解读
计算机视觉研究中的大量研究,都集中在如何把卷积层,池化层,全连接层这些基本构件组合起来,形成有效的卷积神经网络; 找感觉的最好方法之一,就是去看一些案例,就像学习编程一样,通过研究别人构建有效组件的案例,是个不错的方法; 实际上,在计算机视觉任务中表现良好的神经网络框架,往往也适用于其它任务。 一些经典的神经网络架构范例,当中的一些思路为现代计算机视觉技术的发展奠定了基础。 经典网络: LeNet-5: AlexNet VGG ResNet:152层 1.LeNet-5 paper:http://yann.原创 2020-05-08 19:48:29 · 1549 阅读 · 1 评论 -
深度学习02: 1x1卷积可以做什么
1x1卷积可以做什么 假如输入一个6x6二维图片,过滤器尺寸为1x1x1, 做1x1的卷积,只是对输入矩阵乘以某个数字,貌似用处不大; 但这仅仅是对于6x6x1的信道图片来会说1x1效果不佳; 如果是一张6x6x32的图片,那么使用1x1过滤器进行卷积效果如何呢? 具体来说,是遍历这36个单元,每个单元计算左边图中的32个数字和过滤器中32个数字的元素智能乘积,然后运用ReLu非线性函数; 以...原创 2020-05-07 16:33:32 · 337 阅读 · 0 评论 -
深度学习01:CNN的若干基础概念
1.边缘检测 常见的都有垂直方向,水平方向边缘检测,sobel算子 假如把滤波器的参数,用数据自动训练,就可以得到检测任意边缘检测的滤波器 2.Padding 卷积计算的缺点: 1.丢失边缘信息:每次做卷积运算,图像就会变小,丢弃边缘信息; 2.角落边的像素,只会计算一次,而图中间的像素,会被卷积计算多次,意味着丢失了边缘许多信息; 未解决这个问题,在做卷积之前,对图像先做填充 输出变成 (n...原创 2020-05-06 14:49:22 · 310 阅读 · 0 评论