低精度训练2:半精度训练与LLaMA2训练实战
半精度介绍
-
什么是半精度
- 半精度FP16(half precision)是一种浮点数格式,它使用16bit表示一个数字(2个字节)
- 在训练过程中,启用半精度训练可以有效节约显存,并提升计算速度
-
什么是半精度
- 半精度FP16(half precision)是一种浮点数格式,它只占用16位(2个字节)
- 在计算过程中的问题,可能存在溢出问题和舍入问题,可以使用bf16替代
如何启用半精度训练
- 如何启用半精度训练
- 方式一
- 模型加载后调用half方法将单精度模型转为半精度模型
- model=model.half()
- 方式二(推荐)
- 模型加载时,指定torch_dtype参数为torch
- 方式一