时间:2021-05-23
1. 在终端执行时设置使用哪些GPU(两种方式)
(1) 如下(export 语句执行一次就行了,以后再运行代码不用执行)
(2) 如下
2. 代码中指定(两种方式)
(1)
import osos.environ["CUDA_VISIBLE_DEVICES"] = "1"(2)
# Creates a graph.with tf.device('/gpu:1'): a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a') b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b') c = tf.matmul(a, b)# Creates a session with log_device_placement set to True.sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))# Runs the op.print sess.run(c)若想使用多个GPU,如下
c = []for d in ['/gpu:0', '/gpu:1']: with tf.device(d): a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3]) b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2]) c.append(tf.matmul(a, b))with tf.device('/cpu:0'): sum = tf.add_n(c)# Creates a session with log_device_placement set to True.sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))# Runs the op.print sess.run(sum)3.GPU资源分配
(1) 设置允许GPU增长
config = tf.ConfigProto()config.gpu_options.allow_growth = Truesession = tf.Session(config=config, ...)(2) 设置每个GPU内存使用多少
config = tf.ConfigProto()config.gpu_options.per_process_gpu_memory_fraction = 0.4session = tf.Session(config=config, ...)以上这篇基于tensorflow指定GPU运行及GPU资源分配的几种方式小结就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
在tensorflow中,我们可以使用tf.device()指定模型运行的具体设备,可以指定运行在GPU还是CUP上,以及哪块GPU上。设置使用GPU使用tf.
1.指定GPU运算如果安装的是GPU版本,在运行的过程中TensorFlow能够自动检测。如果检测到GPU,TensorFlow会尽可能的利用找到的第一个GPU
本文适合多GPU的机器,并且每个用户需要单独使用GPU训练。虽然pytorch提供了指定gpu的几种方式,但是使用不当的话会遇到outofmemory的问题,主
在tensorflow中,默认指定占用所有的GPU,如需指定占用的GPU,可以在命令行中:exportCUDA_VISIBLE_DEVICES=1这样便是只占用
一、多张gpu的卡上使用keras有多张gpu卡时,推荐使用tensorflow作为后端。使用多张gpu运行model,可以分为两种情况,一是数据并行,二是设备