时间:2021-05-22
笔者需要tensorflow仅运行在一个GPU上(机器本身有多GPU),而且需要依据系统参数动态调节,故无法简单使用CUDA_VISIBLE_DEVICES。
一种方式是全局使用tf.device函数生成的域,但设备号需要在绘制Graph前指定,仍然不够灵活。
查阅文档发现config的GPUOptions中的visible_device_list可以定义GPU编号从visible到virtual的映射,即可以设置tensorflow可见的GPU device,从而全局设置了tensorflow可见的GPU编号。代码如下:
config = tf.ConfigProto()config.gpu_options.visible_device_list = str(device_num)sess = tf.Session(config=config)参考 多卡服务器下隐藏部分 GPU 和 TensorFlow 的显存使用设置,还可以通过os包设置全局变量CUDA_VISIBLE_DEVICES,代码如下:
os.environ["CUDA_VISIBLE_DEVICES"] = "2"
补充知识:TensorFlow 设置程序可见GPU与逻辑分区
TensorFlow 设置程序可见GPU(多GPU情况)
import matplotlib as mplimport matplotlib.pyplot as plt%matplotlib inlineimport numpy as npimport sklearnimport pandas as pdimport osimport sysimport timeimport tensorflow as tffrom tensorflow_core.python.keras.api._v2 import kerasprint(tf.__version__)print(sys.version_info)for module in mpl, np, pd, sklearn, tf, keras: print(module.__name__, module.__version__)# 打印变量所在位置tf.debugging.set_log_device_placement(True) # 获取物理GPU的个数gpus = tf.config.experimental.list_physical_devices("GPU") if len(gpus) >= 1: # 设置第几个GPU 当前程序可见 tf.config.experimental.set_visible_devices(gpus[0], "GPU") print("物理GPU个数:", len(gpus))# 获取逻辑GPU的个数logical_gpus = tf.config.experimental.list_logical_devices("GPU") print("逻辑GPU个数:", len(logical_gpus))TensorFlow 设置GPU的 逻辑分区
import matplotlib as mplimport matplotlib.pyplot as plt%matplotlib inlineimport numpy as npimport sklearnimport pandas as pdimport osimport sysimport timeimport tensorflow as tffrom tensorflow_core.python.keras.api._v2 import kerasprint(tf.__version__)print(sys.version_info)for module in mpl, np, pd, sklearn, tf, keras: print(module.__name__, module.__version__)# 打印变量所在位置tf.debugging.set_log_device_placement(True) # 获取物理GPU的个数gpus = tf.config.experimental.list_physical_devices("GPU") if len(gpus) >= 1: # 设置第几个GPU 当前程序可见 tf.config.experimental.set_visible_devices(gpus[0], "GPU") # 设置GPU的 逻辑分区 tf.config.experimental.set_virtual_device_configuration( gpus[0], [tf.config.experimental.VirtualDeviceConfiguration(memory_limit=3072), tf.config.experimental.VirtualDeviceConfiguration(memory_limit=3072)])print("物理GPU个数:", len(gpus))# 获取逻辑GPU的个数logical_gpus = tf.config.experimental.list_logical_devices("GPU") print("逻辑GPU个数:", len(logical_gpus))TensorFlow 手动设置处理GPU
import matplotlib as mplimport matplotlib.pyplot as plt%matplotlib inlineimport numpy as npimport sklearnimport pandas as pdimport osimport sysimport timeimport tensorflow as tffrom tensorflow_core.python.keras.api._v2 import kerasprint(tf.__version__)print(sys.version_info)for module in mpl, np, pd, sklearn, tf, keras: print(module.__name__, module.__version__)# 打印变量所在位置tf.debugging.set_log_device_placement(True) # 自动指定处理设备tf.config.set_soft_device_placement(True)# 获取物理GPU的个数gpus = tf.config.experimental.list_physical_devices("GPU") for gpu in gpus: # 设置内存自增长方式 tf.config.experimental.set_memory_growth(gpu, True) print("物理GPU个数:", len(gpus))# 获取逻辑GPU的个数logical_gpus = tf.config.experimental.list_logical_devices("GPU") print("逻辑GPU个数:", len(logical_gpus))c = []# 循环遍历当前逻辑GPUfor gpu in logical_gpus: print(gpu.name) # 手动设置处理GPU with tf.device(gpu.name): a = tf.constant([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]]) b = tf.constant([[1.0, 2.0], [3.0, 4.0], [5.0, 6.0]]) # 矩阵相乘 并且添加至列表 c.append(tf.matmul(a, b))# 手动设置处理GPUwith tf.device("/GPU:0"): matmul_sum = tf.add_n(c)print(matmul_sum)以上这篇Tensorflow全局设置可见GPU编号操作就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
服务器有多张显卡,一般是组里共用,分配好显卡和任务就体现公德了。除了在代码中指定使用的GPU编号,还可以直接设置可见GPU编号,使程序/用户只对部分GPU可见。
tensorflow下设置使用某一块GPU(从0开始编号):importosos.environ["CUDA_DEVICE_ORDER"]="PCI_BUS_I
默认情况下,TensorFlow会映射进程可见的所有GPU的几乎所有GPU内存(取决于CUDA_VISIBLE_DEVICES)。通过减少内存碎片,可以更有效地
在tensorflow中,我们可以使用tf.device()指定模型运行的具体设备,可以指定运行在GPU还是CUP上,以及哪块GPU上。设置使用GPU使用tf.
一、硬件要求首先,TensorFlow-gpu不同于CPU版本的地方在于,GPU版本必须有GPU硬件的支撑。TensorFlow对NVIDIA显卡的支持较为完备