【深度学习-调参】Batch 大小与类别数到底有没有潜在的关系?


深度学习中的 Batch 概念

在深度学习的训练过程中,我们通常不会把整个数据集一次性送入模型进行前向传播和反向传播,而是将数据划分成多个批次(batch)进行迭代训练。每一个批次包含了若干条训练样本,批次的大小即为我们常说的 batch_size。其目的是为了在保证一定的计算效率的同时,让模型在每个迭代过程中可以对数据进行一定程度的采样,从而更好地学习到数据中的特性。

但是,batch_size 并不只影响计算效率和显存使用,它还有另外一个关键影响因素,就是 批次内数据的类别分布是否均衡。在分类任务中,若批次内类别分布与真实数据分布差异过大,可能导致模型在训练时受到的梯度更新不稳定,甚至在某些训练轮数里过度偏向某些类别。这会使得模型整体的收敛过程变得较为困难,影响模型的最终表现。


为什么关注批次内的类别分布?

对于一个多分类任务(例如有 10 个不同类别要识别),如果我们使用随机采样的方式在每个 batch 中抽取数据,理论上这能够让批次平均下来与整体数据分布相似。然而,在批量较小数据本身分布极不平衡的情况下,随机抽样容易导致某些批次内的类别样本数很低甚至出现某些类别缺失的极端情况。这样会出现以下问题:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

若北辰

谢谢鼓励

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值