
深度学习理论
上进的菜鸟
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
DNN
原创 2018-12-31 20:36:55 · 934 阅读 · 0 评论 -
最优化方法
在鞍点(saddle points)处(即某些维度上梯度为零,某些维度上梯度不为零),SGD、Momentum与NAG一直在鞍点梯度为零的方向上振荡,很难打破鞍点位置的对称性;Adagrad、RMSprop与Adadelta能够很快地向梯度不为零的方向上转移 下面是自己总结的,截个图吧 ...原创 2019-03-23 10:49:41 · 1310 阅读 · 0 评论 -
autoencoder 自编码
来自:莫烦python转载 2019-02-27 11:00:55 · 159 阅读 · 0 评论 -
RNN+LSTM
比较迷惑的是LSTM里面的o和外面的o不一样啊,不要混淆 RNN为什么会有梯度消失的问题?LSTM如何解决的 https://zhuanlan.zhihu.com/p/28749444转载 2019-01-01 09:04:25 · 616 阅读 · 0 评论 -
LSTM
原创 2019-01-01 09:03:45 · 352 阅读 · 0 评论 -
RNN
原创 2019-01-01 09:03:22 · 240 阅读 · 0 评论 -
CNN
原创 2018-12-31 20:55:06 · 177 阅读 · 0 评论 -
正则化
原创 2018-12-31 20:47:14 · 208 阅读 · 0 评论 -
损失函数和激活函数的搭配
原创 2018-12-31 20:44:59 · 1020 阅读 · 0 评论 -
激活函数
原创 2018-12-31 20:43:23 · 218 阅读 · 0 评论 -
梯度下降
原创 2018-12-31 20:41:11 · 241 阅读 · 0 评论 -
损失函数
原创 2018-12-31 20:38:52 · 322 阅读 · 0 评论 -
参数初始化
1.为什么不能全部设为0 https://zhuanlan.zhihu.com/p/27190255 简单来讲就是如果全为零那么每次更新的时候权重都一样 这里的deltaw和之前正想传播学习的a值什么的相关:因为正想传播所有的那个都一样,从而deltaw一样 参考:https://zhuanlan.zhihu.com/p/24801814 本来我们希望不同的结点学习到不...原创 2019-03-27 11:15:10 · 1389 阅读 · 0 评论