Публикации по теме 'hyperparameter-tuning'


Автоматическая настройка гиперпараметров с помощью GCP ML-Engine
Вторая запись, поскольку я продолжаю свой класс TensorFlow по GCP, неделя №2 курса 5: Искусство и наука машинного обучения . В классе мы сначала строим простую модель линейной регрессии, затем строим задачу для обучения модели с входными параметрами, такими как каталог для вывода и т. д. Среди входных параметров некоторые считаются «гиперпараметрами», например, learning_rate и batch_size. По-видимому, эти гиперпараметры имеют решающее значение для производительности нашей модели...

Настройка гиперпараметров с помощью поиска по сетке и случайного поиска
Как настроить гиперпараметры в Python и почему вам это должно быть небезразлично Наброски Цель этой статьи - объяснить, что такое гиперпараметры и как найти оптимальные с помощью поиска по сетке и случайного поиска, которые представляют собой разные алгоритмы настройки гиперпараметров. Мы рассмотрим концептуальное объяснение как поиска по сетке, так и случайного поиска, чтобы вы могли понять, какой из них лучше (спойлер, это случайный поиск), а также то, что они делают. Затем мы можем..

Настройка модели и разработка функций с использованием XGBoost
В этой статье я буду обсуждать методы предварительной обработки данных, которые дополняют мою предыдущую серию Tensorflow для новичков в качестве расширения. Первым этапом построения модели искусственного интеллекта или машинного обучения является предварительная обработка данных для обеспечения правильного представления модели. Этот этап - самая важная часть, которая в конечном итоге определяет надежность и производительность этой модели. Модель машинного обучения, выпущенная как..

Что такое XGBoost и как его оптимизировать
Что такое XGBoost? А как его оптимизировать? В мире машинного обучения и соревнований Kaggle алгоритм XGBoost занимает первое место. Вступление Как и многие специалисты по обработке данных, XGBoost теперь является частью моего набора инструментов. Этот алгоритм является одним из самых популярных в мире науки о данных (реальном или соревновательном). Его многозадачность позволяет использовать его в проектах регрессии или классификации. Его можно использовать для табличных,..

Настройте свою модель Scikit-learn с помощью эволюционных алгоритмов
Настройка гиперпараметров Scikit-learn с помощью эволюционных алгоритмов и перекрестной проверки. Настройка гиперпараметров является важной частью конвейера машинного обучения - в большинстве распространенных реализаций используется поиск по сетке (случайный или нет) для выбора между набором комбинаций. В этой статье будут использоваться эволюционные алгоритмы с пакетом Python sklearn-генетический-opt , чтобы найти набор параметров, который оптимизирует нашу определенную метрику..

XGBoost: полное руководство по точной настройке и оптимизации вашей модели
Как настроить гиперпараметры XGBoost и повысить производительность вашей модели? Почему XGBoost так популярен? Первоначально начатый как исследовательский проект в 2014 году , XGBoost быстро стал одним из самых популярных алгоритмов машинного обучения за последние несколько лет. Многие считают его одним из лучших алгоритмов и из-за его высокой производительности при решении задач регрессии и классификации рекомендуют его в качестве первого выбора во многих ситуациях. XGBoost..

Пришло время подумать о конвейере.
- Введение в инструмент TPOT Всегда приятно видеть, что наука о данных постоянно занимается улучшением алгоритмов и методов анализа быстро растущих данных для выявления закономерностей. Эти шаблоны могут создавать новые идеи или превращаться в новые методы принятия решений, и в противном случае эти шаблоны трудно изучить без помощи процесса науки о данных. Однако этот процесс часто требует навыков и опыта от практиков. Они должны быть в состоянии собрать достаточный и подходящий..