查看nvidia GPU使用情况
Linux系统下:
在Linux终端命令行输入:nvidia-smi
即可查看GPU显卡的使用情况:如下图所示:
界面解释:
1.GPU:GPU编号,从0开始
2.Name:GPU型号
3.Persistence-M :持续模式状态,如果为on,能耗大但新的GPU启动时耗时短
4.Fan : 风扇转速
5.Temp:GPU温度,图中最左边的红色框所示 GPU 2的温度为53℃
6.Perf : 显卡性能状态,取值为P0~P12,其中P0表示状态最大性能(未工作),P12表示状态最小性能(最大工作状态)
7.Pwe:Usage/Cap : 能耗,12w表示GPU 2 当前能耗,198w表示满负荷能耗;图中左数第二个红色框表示
8.Bus-Id : GPU总线
9.Disp.A : Display Active,表示GPU的显示是否初始化
10.Memory-Usage : 显存使用情况, 2M表示当前GPU 2使用大显存大小;8114M表示显卡大小,图中左数第三个红色框表示
11.Volatile GPU-Util : 表示GPU的实际利用率,图中左数第四个红色框表示
12.Uncorr. ECC:Error Correcting Code,错误检查与纠正
13.Compute M:compute mode,计算模式
nvidia-smi
这个命令行只能输出当下时刻的GPU使用情况,但是如果我们正在利用GPU对我们的神经网络进行训练时,可能会需要实时的GPU使用情况,我们可以添加一个定时输出功能,使用watch命令可以周期性的执行nvidia-smi
命令
watc