介绍方法2:使用x.cuda () + CUDA_VISIBLE_DEVICES
本篇文章给大家分享的是有关怎么在Pytorch中切换cpu和gpu,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。
方法1:x.to(设备)
把设备作为一个可变参数,推荐使用argparse进行加载:
使用gpu时:
设备=& # 39;cuda # 39; x.to(设备),#,x是一个张量,传到cuda上去
使用cpu时:
设备=& # 39;cpu # 39; x.to(设备)
方法2:使用x.cuda () + CUDA_VISIBLE_DEVICES
很多贴子中说,使用x.cuda()和x.to (& # 39; cuda # 39;)虽然是等效的,但是x.cuda()的缺点是无法动态切换cpu。然而,其实配合命令行参数CUDA_VISIBLE_DEVICES是可以进行切换的。
在服务器上创建一个python脚本t。py:
import 火炬 print (torch.cuda.device_count()), #,可用gpu数量 print (torch.cuda.is_available()), #,是否可用gpu
首先先看一下,正常运行的情况:
- <李>
执行命令:python t。李py
> <李>输出结果:因为服务器上有两个gpu,所以是我们想要的结果。
李>2真正
引用>
如果想要只使用某一块gpu,只需要在执行前加一个参数:
<李>
CUDA_VISIBLE_DEVICES python t=0。py,例如,我们要使用gpu 0
李> <李>接下来看看输出什么:是的!程序中确实只可见了一块gpu ~
李>
1
引用>
真
下面,如果我们想使用cpu呢?
<李>
CUDA_VISIBLE_DEVICES=?“李python t.py
> <李>输出结果:可以看的到,虽然服务器上有2块cpu,通过我们设置执行参数,程序中也成功看不到了!
李>
0
引用>
假
因此,回归正题,当我们使用x.cuda()进行分配gpu时,只需要使用torch.cuda.is_available()加一个判断即可,当想使用cpu的时候在执行程序的命令行参数进行控制:
if torch.cuda.is_available (): x=,才能x.cuda ()怎么在Pytorch中切换cpu和gpu