时间:2021-05-22
今天在测试一个pytorch代码的时候显示显存不足,但是这个网络框架明明很简单,用CPU跑起来都没有问题,GPU却一直提示out of memory.
在网上找了很多方法都行不通,最后我想也许是pytorch版本的问题,原来我的pytorch版本是0.4.1,于是我就把这个版本卸载,然后安装了pytorch1.1.0,程序就可以神奇的运行了,不会再有OOM的提示了。虽然具体原因还不知道为何,这里还是先mark一下,具体过程如下:
卸载旧版本pytorch:
conda uninstall pytorch安装pytorch1.1.0,按照官网上的办法,我的CUDA版本是9.0:
conda install pytorch torchvision cudatoolkit=9.0 -c pytorch大功告成!
以上这篇Pytorch GPU显存充足却显示out of memory的解决方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
对于显存不充足的炼丹研究者来说,弄清楚Pytorch显存的分配机制是很有必要的。下面直接通过实验来推出Pytorch显存的分配过程。 实验实验代码如下:i
下面通过实验来探索Pytorch分配显存的方式。实验显存到主存 我使用VSCode的jupyter来进行实验,首先只导入pytorch,代码如下:impo
本文适合多GPU的机器,并且每个用户需要单独使用GPU训练。虽然pytorch提供了指定gpu的几种方式,但是使用不当的话会遇到outofmemory的问题,主
如果在python内调用pytorch有可能显存和GPU占用不会被自动释放,此时需要加入如下代码torch.cuda.empty_cache()我们来看一下官方
显存和内存区别是: 1、内存是由CPU和WINDOWS系统调度使用,显存则只由显卡GPU和图形图像显示程序调度和使用。内存可以在一定条件充当显存,而显存则无法