Как подключить хранилище озера данных Azure к Azure ML?

Привет, я начал изучать лазурное озеро данных и лазурное машинное обучение, мне нужно использовать хранилище лазурного озера данных в качестве входных данных в лазурную студию машинного обучения. Есть любые варианты, я прошел через лазурное озеро данных и машину учебная документация, но я не могу этого достичь, наконец, я получил одно решение по этому ссылка, но они упоминают, что для этого нет возможности, но этот пост старый, поэтому, возможно, люди из Microsoft добавили в него будущее, если пожалуйста, дайте мне знать, дайте мне знать Спасибо.




Ответы (3)


Я рекомендую следующее:

  • Получите идентификатор клиента, идентификатор клиента и секрет клиента для своего ADLS с помощью руководства здесь.
  • Установите пакет Python azure-datalake-store в AML Studio, прикрепив его как скрипт Связка с модулем Execute Python Script.
  • В модуле «Выполнение сценария Python» импортируйте пакет azure-datalake-store и подключитесь к ADLS, используя свой идентификатор клиента, идентификатор клиента и секрет клиента.
  • Загрузите необходимые данные из ADLS и преобразуйте их в фрейм данных в модуле Python Script; верните этот фрейм данных, чтобы сделать данные доступными в остальной части AML Studio.
person mewahl    schedule 21.03.2017
comment
Как установить зависимости модуля azure-datalake-store? Требуется много пакетов, например. - adl, jwt, pathlib, msrest, oauthlib, chardet и т. д. - person liferacer; 12.07.2017

Конечно, вы можете использовать эталонные сборки для добавления когнитивных сервисов в USQL на основе ваших данных ADLS. https://docs.microsoft.com/en-us/azure/data-lake-analytics/data-lake-analytics-u-sql-cognitive

person guyhay_MSFT    schedule 07.03.2017

Вы можете проверить эту документацию Microsoft Azure, которая охватывает:

  1. Создайте среду обработки данных для создания масштабируемых комплексных решений в Azure Data Lake.

  2. Эта среда использовалась для анализа большого общедоступного набора данных, прохождения его через канонические этапы процесса обработки данных, от сбора данных до обучения модели, а затем до развертывания модели как веб-службы.

  3. U-SQL использовался для обработки, исследования и выборки данных.

  4. Python и Hive использовались со Студией машинного обучения Azure для создания и развертывания прогнозных моделей.

Ссылка: https://docs.microsoft.com/en-us/azure/machine-learning/team-data-science-process/data-lake-walkthrough

person Manoj Pandey    schedule 14.03.2018