У меня есть сервер с двумя Intel xeon gold 6148 и tenorflow, работающими на нем. Когда я устанавливаю tf с помощью pip, я получаю сообщение о том, что AVX2 и AVX512 не используются в моей установке. Итак, чтобы добиться максимальной производительности, я попытался собрать tf из исходного кода с помощью docker. Я сделал это после https://www.tensorflow.org/install/source, но для Я использовал команду сборки bazel:
bazel build --config=mkl -c opt --copt=-mavx --copt=-mavx2 --copt=-mfma --copt=-mavx512f --copt=-mavx512pf --copt=-mavx512cd --copt=-mavx512er //tensorflow/tools/pip_package:build_pip_package
следующие https://software.intel.com/en-us/articles/intel-optimization-for-tensorflow-installation-guide.
Но эта установка работает намного хуже, чем стандартная установка pip.
Итак, подведем итог: как лучше всего установить tensorflow и архитектуру xeon gold?
-mavx512er
, а не основные процессоры Xeon. В идеале используйте-march=native
(за исключением того, что сценарии сборки, похоже, искажают параметры компилятора, содержащие=
). - person Peter Cordes   schedule 30.03.2019([tensorflow] OR [intel-tensorflow])
- person Peter Cordes   schedule 19.11.2019