【深度学习基础】模型优化

深度学习之优化

基本概念

Batch

所有样本一起训练。

Epoch

所有样本一起训练一次叫一个epoch

miniBatch

一次训练的不是全部的样本。

SGD

一次只训练一个样本,然后用这个样本来更新梯度。我们通常说的SGD是指miniSGD

鞍点

如下图所示:在这里插入图片描述
鞍点是一个平的点,在该点处梯度为0,但是并不是我们想要的点。

梯度爆炸

对于复杂的模型,某个点的梯度非常大,以至于下一步不知道往哪走。
对于梯度爆炸通常采用梯度裁剪的方式,即设定一个值,当梯度超过这个值的时候就把梯度设定为该值。

动量

可以理解为惯性。
在这里插入图片描述

总结

提示:这里对文章进行总结:
例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值