Развертывание SageMaker в EIA из режима сценария TF Python3

Я установил Tensorflow Estimator в SageMaker, используя режим сценария с framework_version='1.12.0' и python_version='py3', используя экземпляр GPU.

Вызов развертывания непосредственно в этом оценщике работает, если я также выберу тип экземпляра развертывания как GPU. Однако, если я выберу тип экземпляра ЦП и / или попытаюсь добавить ускоритель, он выйдет из строя с ошибкой, что докер не может найти соответствующее изображение для извлечения.

Кто-нибудь знает, как обучить модель py3 на графическом процессоре в режиме сценария, а затем развернуть на экземпляре CPU + EIA?


Я нашел частичный обходной путь, выполнив промежуточный шаг создания TensorFlowModel из обучающих артефактов оценщика и затем развернув его из модели, но это, похоже, не поддерживает python 3 (опять же, не находит соответствующий контейнер). Если я переключусь на python_version = 'py2', он найдет контейнер, но не пройдет проверку работоспособности, потому что весь мой код предназначен для python 3.


person Austin    schedule 01.02.2019    source источник
comment
Это заработало, используя sagemaker.tensorflow.serving.Model вместо TensorFlowModel. По-прежнему не удается выполнить развертывание напрямую из оценщика.   -  person Austin    schedule 16.02.2019


Ответы (1)


К сожалению, в настоящее время нет изображений, обслуживающих TF + Python 3 + EI. Если вы хотите использовать TF + EI, вам необходимо убедиться, что ваш код совместим с Python 2.

Изменить: после того, как я изначально написал это, была выпущена поддержка TF + Python 3 + EI. На момент написания этой статьи я считаю, что TF 1.12.0, 1.13.1 и 1.14.0 имеют поддержку Python 3 + EI. Полный список см. На странице https://github.com/aws/sagemaker-python-sdk#tensorflow-sagemaker-estimators.

person lauren    schedule 11.02.2019