网络编程
位置:首页>> 网络编程>> Python编程>> tensorflow指定GPU与动态分配GPU memory设置

tensorflow指定GPU与动态分配GPU memory设置

作者:sherry颖  发布时间:2023-01-16 11:30:24 

标签:tensorflow,GPU,分配,memory

在tensorflow中,默认指定占用所有的GPU,如需指定占用的GPU,可以在命令行中:


export CUDA_VISIBLE_DEVICES=1

这样便是只占用1号GPU,通过命令


nvidia-smi

可以查看各个GPU的使用情况。

另外,也可以在python程序中指定GPU,并且动态分配memory,代码如下


import os
import sys
os.environ['CUDA_VISIBLE_DEVICES'] = sys.argv[1]
import tensorflow as tf
from keras.backend.tensorflow_backend import set_session
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
set_session(tf.Session(config=config))

这样,占用的GPU就是sys.argv[1]了,并且会按需分配memory。

来源:https://blog.csdn.net/sherry_jy/article/details/79564930

0
投稿

猜你喜欢

手机版 网络编程 asp之家 www.aspxhome.com