Я новичок в Tensorflow и работаю над распространением тестовых изображений на несколько графических процессоров. Я прочитал много ответов о переполнении стека и примеров Github, и я думаю, что это можно сделать двумя способами.
1) использование tf.FIFOQueue() для подачи изображений каждого графического процессора, однако очередь не рекомендуется во многих ответах (из-за нового API tf.data). И у него есть некоторые проблемы (https://github.com/tensorflow/tensorflow/issues/8061< /а>)
2) с использованием API tf.data. Я не уверен, поддерживает ли этот API GPU или нет. В этом выпуске (https://github.com/tensorflow/tensorflow/issues/13610), похоже, входной конвейер с API tf.data пока не может поддерживать подачу на GPU.
Я не рассматриваю распределенный Tensorflow (поскольку наша модель и масштаб сервера не так велики)
Я буду очень признателен, если кто-то может дать мне какой-либо совет.