@TOC
看后台显卡使用情况(每1s刷新一次) watch -n 1 nvidia-smi
1. 设置可见GPU
注意!!!!!!!!!!!!!!
os.environ["CUDA_VISIBLE_DEVICES"] = "0, 1, 2"
==此条命令运行必须放在==import torch
==之前,否则不能生效!!!!!!!!!!!!!!!!!!!此条坑了我一上午==
当然还是建议这条方法或者第二条,这样设置了以后对程序可见的卡就固定在这几张了,不会对他人正在使用的卡产生任何影响
1 | import os |
2. 终端运行时设定
1 | CUDA_VISIBLE_DEVICES=1,2,3 python train.py |
3. 代码中设定
1 | import os |
等价于
1 | if torch.cuda.device_count() > 1: |
这是因为在第一段中已经设置了可见GPU为2,3,4,5
,就是说假设我们有八块GPU,序号分别为0,1,2,3,4,5,6,7
,本来他们的编号也分别为0,1,2,3,4,5,6,7
,但是因为设置了可见GPU为2,3,4,5
所以我们选取的GPU的序号为2,3,4,5
,==但是对于程序来说他们的编号分别为[0,1,2,3]==,如下图所示
