tensorflow指定GPU与动态分配GPU memory设置

Dianne ·
更新时间:2024-11-14
· 950 次阅读

在tensorflow中,默认指定占用所有的GPU,如需指定占用的GPU,可以在命令行中:

export CUDA_VISIBLE_DEVICES=1

这样便是只占用1号GPU,通过命令

nvidia-smi

可以查看各个GPU的使用情况。

另外,也可以在python程序中指定GPU,并且动态分配memory,代码如下

import os import sys os.environ['CUDA_VISIBLE_DEVICES'] = sys.argv[1] import tensorflow as tf from keras.backend.tensorflow_backend import set_session config = tf.ConfigProto() config.gpu_options.allow_growth = True set_session(tf.Session(config=config))

这样,占用的GPU就是sys.argv[1]了,并且会按需分配memory。

以上这篇tensorflow指定GPU与动态分配GPU memory设置就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持软件开发网。

您可能感兴趣的文章:基于Tensorflow使用CPU而不用GPU问题的解决tensorflow:指定gpu 限制使用量百分比,设置最小使用量的实现运行tensorflow python程序,限制对GPU和CPU的占用操作tensorflow使用指定gpu的方法基于tensorflow指定GPU运行及GPU资源分配的几种方式小结检测tensorflow是否使用gpu进行计算的方式解决TensorFlow GPU版出现OOM错误的问题解决Tensorflow占用GPU显存问题已安装tensorflow-gpu,但keras无法使用GPU加速的解决



tensorflow memory 动态

需要 登录 后方可回复, 如果你还没有账号请 注册新账号