时间:2021-05-22
在tensorflow中,默认指定占用所有的GPU,如需指定占用的GPU,可以在命令行中:
export CUDA_VISIBLE_DEVICES=1这样便是只占用1号GPU,通过命令
nvidia-smi可以查看各个GPU的使用情况。
另外,也可以在python程序中指定GPU,并且动态分配memory,代码如下
import osimport sysos.environ['CUDA_VISIBLE_DEVICES'] = sys.argv[1]import tensorflow as tffrom keras.backend.tensorflow_backend import set_sessionconfig = tf.ConfigProto()config.gpu_options.allow_growth = Trueset_session(tf.Session(config=config))这样,占用的GPU就是sys.argv[1]了,并且会按需分配memory。
以上这篇tensorflow指定GPU与动态分配GPU memory设置就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
在tensorflow中,我们可以使用tf.device()指定模型运行的具体设备,可以指定运行在GPU还是CUP上,以及哪块GPU上。设置使用GPU使用tf.
1.指定GPU运算如果安装的是GPU版本,在运行的过程中TensorFlow能够自动检测。如果检测到GPU,TensorFlow会尽可能的利用找到的第一个GPU
服务器有多张显卡,一般是组里共用,分配好显卡和任务就体现公德了。除了在代码中指定使用的GPU编号,还可以直接设置可见GPU编号,使程序/用户只对部分GPU可见。
一、硬件要求首先,TensorFlow-gpu不同于CPU版本的地方在于,GPU版本必须有GPU硬件的支撑。TensorFlow对NVIDIA显卡的支持较为完备
笔者需要tensorflow仅运行在一个GPU上(机器本身有多GPU),而且需要依据系统参数动态调节,故无法简单使用CUDA_VISIBLE_DEVICES。一