时间:2021-05-22
我们在使用GPU资源进行训练的时候,可能会发生资源耗尽的情况,那么在在这种情况,我们需要对GPU的资源进行合理的安排,具体使用办法如下:
框架:Tensorflow和Keras
方法
import tensorflow as tfimport keras.backend.tensorflow_backend as KTFconfig = tf.ConfigProto()config.gpu_options.allow_growth=True #不全部占满显存, 按需分配sess = tf.Session(config=config)KTF.set_session(sess) # 设置session通过这种方法,就能合理的使用GPU资源了。
至少到目前位置,我自己从程序没出现资源耗尽的情况,当然,对于batchsize的设置,一定要设置在合理的范围,所谓合理,大家自己体会。
补充知识:keras使用GPU的一些坑
keras安装
conda install tensorflow-gpu
pip install keras
注意:不要使用conda安装keras,会检测依赖,默认安装上tensorflow的CPU版本。
keras运行报错,tensorflow/stream_executor/cuda/cuda_dnn.cc:329 Could not create cudnn handle: CUDNN_STATUS_INTERNAL_ERROR
解决方法:
增加如下代码:
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.5)config = tf.ConfigProto(gpu_options=gpu_options)config.gpu_options.allow_growth = Truesession = tf.Session(config=config)以上这篇解决Keras使用GPU资源耗尽的问题就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
1.keras新版本中加入多GPU并行使用的函数下面程序段即可实现一个或多个GPU加速:注意:使用多GPU加速时,Keras版本必须是Keras2.0.9以上版
问题我们使用anoconda创建envs环境下的Tensorflow-gpu版的,但是当我们在Pycharm设置里的工程中安装Keras后,发现调用keras无
一、多张gpu的卡上使用keras有多张gpu卡时,推荐使用tensorflow作为后端。使用多张gpu运行model,可以分为两种情况,一是数据并行,二是设备
Tensorflow支持基于cuda内核与cudnn的GPU加速,Keras出现较晚,为Tensorflow的高层框架,由于Keras使用的方便性与很好的延展性
初步尝试Keras(基于Tensorflow后端)深度框架时,发现其对于GPU的使用比较神奇,默认竟然是全部占满显存,1080Ti跑个小分类问题,就一下子满了.