Сначала объясните мою операционную среду:
win10x64
cuda9.1 and cudnn7
gtx1080Ti x2
i7-6850k
Я использовал версию tenorflow для c ++, чтобы написать программу, которая читает файл pb и затем вводит изображение для предсказания. Моя цель состоит в том, чтобы все gpus могли быть вызваны при использовании тензорного потока в одном потоке или одного потока в одном gpu.
Сначала используйте python под окнами, чтобы вызвать программу tenorsflow slim, а затем преобразуйте сохраненный файл модели в стоп-файл, используя freeze_graph.py.
Однако я обнаружил, что при использовании функции session-> Run () вызывался только один gpu. Будь то создание нескольких потоков или одного потока, я использовал следующий метод для вызова нескольких GPU:
tensorflow::graph::SetDefaultDevice("0", &graphdef);
или же
GraphDef graphdef; //Graph Definition for current model
Status status_load = ReadBinaryProto(Env::Default(), model_path, &graphdef); //read graph from pb_file
if (!status_load.ok()) {
std::cout << " ERROR: Loading model failed...\n"<< model_path
<< std::endl;
std::cout << status_load.ToString() << "\n";
system("pause");
return;
}
tensorflow::SessionOptions options;
tensorflow::ConfigProto &config = options.config;
config.set_log_device_placement(true);
config.mutable_gpu_options()->set_allow_growth(true);
//config.mutable_gpu_options()->set_allocator_type(std::string("BFC"));
//config.mutable_gpu_options()->set_visible_device_list("");//this no error,but still can only call one gpu
//config.mutable_gpu_options()->set_visible_device_list("0");//error!
config.mutable_gpu_options()->set_visible_device_list("0,1");//error!
config.mutable_gpu_options()->set_per_process_gpu_memory_fraction(1);
Session* session;
Status status = NewSession(SessionOptions(options), &session);
Status status_create = session->Create(graphdef);
Оба вышеперечисленных метода потерпели неудачу, и подсказки об ошибках одинаковы:
2018-08-08 09:25:55.953495: I D:\MyProject\tensorflow-1.10.0-rc1\tensorflow\core\platform\cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX AVX2
2018-08-08 09:25:56.541237: I D:\MyProject\tensorflow-1.10.0-rc1\tensorflow\core\common_runtime\gpu\gpu_device.cc:1404] Found device 0 with properties:
name: GeForce GTX 1080 Ti major: 6 minor: 1 memoryClockRate(GHz): 1.582
pciBusID: 0000:06:00.0
totalMemory: 11.00GiB freeMemory: 9.02GiB
2018-08-08 09:25:56.708385: I D:\MyProject\tensorflow-1.10.0-rc1\tensorflow\core\common_runtime\gpu\gpu_device.cc:1404] Found device 1 with properties:
name: GeForce GTX 1080 Ti major: 6 minor: 1 memoryClockRate(GHz): 1.582
pciBusID: 0000:0b:00.0
totalMemory: 11.00GiB freeMemory: 9.02GiB
2018-08-08 09:25:56.731390: I D:\MyProject\tensorflow-1.10.0-rc1\tensorflow\core\common_runtime\gpu\gpu_device.cc:1483] Adding visible gpu devices: 0, 1
2018-08-08 09:26:04.117910: I D:\MyProject\tensorflow-1.10.0-rc1\tensorflow\core\common_runtime\gpu\gpu_device.cc:964] Device interconnect StreamExecutor with strength 1 edge matrix:
2018-08-08 09:26:04.131670: I D:\MyProject\tensorflow-1.10.0-rc1\tensorflow\core\common_runtime\gpu\gpu_device.cc:970] 0 1
2018-08-08 09:26:04.142367: I D:\MyProject\tensorflow-1.10.0-rc1\tensorflow\core\common_runtime\gpu\gpu_device.cc:983] 0: N N
2018-08-08 09:26:04.152745: I D:\MyProject\tensorflow-1.10.0-rc1\tensorflow\core\common_runtime\gpu\gpu_device.cc:983] 1: N N
2018-08-08 09:26:04.173833: E D:\MyProject\tensorflow-1.10.0-rc1\tensorflow\core\common_runtime\gpu\gpu_process_state.cc:105] Invalid allocator type: 0,1
2018-08-08 09:26:04.189278: E D:\MyProject\tensorflow-1.10.0-rc1\tensorflow\core\common_runtime\direct_session.cc:158] Internal: Failed to get memory allocator for TF GPU 0 with 11811160064 bytes of memory.
ERROR: Creating Session failed...
Internal: Failed to create session.
Press any key to continue......
Согласно подсказке я переключился на «/ gpu /: 0» и «/ device: GPU: 0» в качестве идентификатора gpu. Но быстрое разрешение не удалось, как показано ниже:
2018-08-08 09:31:07.052736: I D:\MyProject\tensorflow-1.10.0-rc1\tensorflow\core\platform\cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX AVX2
2018-08-08 09:31:07.643228: E D:\MyProject\tensorflow-1.10.0-rc1\tensorflow\core\common_runtime\direct_session.cc:158] Invalid argument: Could not parse entry in 'visible_device_list': '/device:GPU:0'. visible_device_list = /device:GPU:0
ERROR: Creating Session failed...
Internal: Failed to create session.
или же
2018-08-08 09:32:28.753232: I D:\MyProject\tensorflow-1.10.0-rc1\tensorflow\core\platform\cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX AVX2
2018-08-08 09:32:29.082282: E D:\MyProject\tensorflow-1.10.0-rc1\tensorflow\core\common_runtime\direct_session.cc:158] Invalid argument: Could not parse entry in 'visible_device_list': '/gpu:0'. visible_device_list = /gpu:0
ERROR: Creating Session failed...
Internal: Failed to create session.
Тогда я обнаружил ту же ошибку в выпусках / github / tenorflow. Я попробовал следующие методы в соответствии с их методом:
Следуй этим планам # 5379
1. {tf_root} \ tenorflow \ tf_version_script.lds
Изменить этот файл, добавить «Protobuf;»
провал!
2. добавить соответствующую библиотеку.
tf_core_gpu_kernelss.lib
training_ops_gen_cc.lib
transform_graph.lib
tf_protos_cc.lib
user_ops_gen_cc.lib
провал!
Но если я использую следующий метод:
config.mutable_gpu_options()->set_visible_device_list("")
или же
tensorflow::graph::SetDefaultDevice("", &graphdef)
Это может пройти и работать, но все же только один GPU называется!
Я нашел ту же ошибку в этом выпуске# 18861, но я не нашел C ++ решение ниже, поэтому я подозреваю, что это моя проблема с тензорным потоком, я перекомпилирую 1.9.0 и последнюю версию 1.10.0-rc1. Но получите ту же ошибку
Может ли кто-нибудь помочь мне решить эту проблему? └ (^ о ^) ┘
Я действительно очень ценю это!
Спасибо, что переиграли меня!
Возможно, я нашел решение, но сегодня тест не соответствует моим требованиям.
tensorflow::SessionOptions options;
tensorflow::ConfigProto &config = options.config;
auto* device_count = config.mutable_device_count();
/*device_count->insert({ "CPU", 1 });*/
//device_count->insert({ "GPU", 1 });//1 represents one gpu, not the "/gpu:0"device_count->insert({ "GPU", 2 });//2 represents two gpu, it is "/gpu:0" and "/gpu:1"
Session* session;
Status status = NewSession(options, &session);//creat new Session
std::vector<DeviceAttributes> response;
session->ListDevices(&response);
//print the device list
for (int temIndex = 0; temIndex < response.size(); ++temIndex) {
auto temValue= response[temIndex];
std::cout << "ListDevices(): " << temIndex << " " << response[temIndex].name() << std::endl;
}
Использование этого метода аналогично следующему:
options.config.mutable_gpu_options()->set_visible_device_list("");
все еще невозможно четко определить используемый GPU, и все же все вычисления размещены на одном GPU, я думаю, что это может быть, мой метод все еще имеет проблемы.
Но я чувствую, что собираюсь найти решение …
Других решений пока нет …