tf.ConfigProto()如何在Tensorflow中使用

  介绍

tf.ConfigProto()如何在Tensorflow中使用?相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。

<强> tf.ConfigProto()主要的作用是配置特遣部队。会话的运算方式,比如gpu运算或者cpu运算

具体代码如下:

import  tensorflow  as  tf      时间=session_config  tf.ConfigProto (   ,,log_device_placement=True,   ,,inter_op_parallelism_threads=0,   ,,intra_op_parallelism_threads=0,   ,,allow_soft_placement=True)      时间=sess  tf.Session (config=session_config)      a =, tf.constant([1.0, 2.0, 3.0,, 4.0, 5.0, 6.0),,=(2、3),形状,name=& # 39; b # 39;)   b =, tf.constant([1.0, 2.0, 3.0,, 4.0, 5.0, 6.0),,=(3 2),形状,name=& # 39; b # 39;)      时间=c  tf.matmul (a, b)   print (sess.run (c))

<强>具体解释

<强> log_device_placement=True

设置为真时,会打印出TensorFlow使用了那种操作

<强> inter_op_parallelism_threads=0

设置线程一个操作内部并行运算的线程数,比如矩阵乘法,如果设置为0,则表示以最优的线程数处理

<强> intra_op_parallelism_threads=0

设置多个操作并行运算的线程数,比如c=a + b, d=e + f。可以并行运算

<强> allow_soft_placement=True

有时候,不同的设备,它的cpu和gpu是不同的,如果将这个选项设置成这样,那么当运行设备不满足要求时,会自动分配gpu或者cpu。

<强>其他选项

当使用gpu时候,Tensorflow运行自动慢慢达到最大gpu的内存

session_config.gpu_options.allow_growth =,真正的

当使用gpu时,设置gpu内存使用最大比例

session_config.gpu_options.per_process_gpu_memory_fraction =,

0.4是否能够使用gpu进行运算

tf.test.is_built_with_cuda ()

另外的处理方法

import  tensorflow  as  tf      时间=sess  tf.Session ()      with  tf.device (& # 39;/cpu: 0 & # 39;):   a 才能=,tf.constant((1.0, 3.0, 5.0),,形状=[1,,3])   b 才能=,tf.constant((2.0, 4.0, 6.0),,形状=[3,1])      with 才能;tf.device (& # 39;/gpu: 0 & # 39;):   ,,,c =, tf.matmul (a, b)   ,,,c =, tf.reshape (c, [1])      with 才能;tf.device (& # 39;/gpu: 0 & # 39;):   ,,,d =, tf.matmul (b, a)   ,,,flat_d =, tf.reshape (d, [1])      时间=combined 才能;tf.multiply (c, flat_d)   打印才能(sess.run(组合))

看完上述内容,你们掌握tf.ConfigProto()如何在Tensorflow中使用的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注行业资讯频道,感谢各位的阅读!

tf.ConfigProto()如何在Tensorflow中使用