tensorflow指定GPU与动态分配GPU内存设置

  

在tensorflow中,默认指定占用所有的GPU,如需指定占用的GPU,可以在命令行中:

        出口CUDA_VISIBLE_DEVICES=1      

这样便是只占用1号GPU,通过命令

        nvidia-smi      

可以查看各个GPU的使用情况。

  

另外,也可以在python程序中指定GPU,并且动态分配内存,代码如下

        进口操作系统   导入系统   操作系统。环境[' CUDA_VISIBLE_DEVICES ']=sys.argv [1]   进口tensorflow特遣部队   从keras.backend。tensorflow_backend进口set_session   配置=tf.ConfigProto ()   config.gpu_options。allow_growth=True   set_session (tf.Session (config=配置)      

这样,占用的GPU就是sys.argv[1]了,并且会按需分配内存。

  

以上这篇tensorflow指定GPU与动态分配GPU内存设置就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

tensorflow指定GPU与动态分配GPU内存设置