Публикации по теме 'sklearn'


Scikit-learn  — универсальное решение в области машинного обучения.
Я в восторге от Scikit-learn . Я всегда использовал scikit-learn для моделирования данных и метрик. Но я понятия не имел, насколько разнообразной и полезной может быть эта библиотека! Итак, этот пост посвящен рассмотрению и восхвалению Scikit-learn. Что такого особенного в scikit-learn? Теперь, если вы настроены скептически и еще не изучили его возможности, вы, должно быть, думаете: « что это за шумиха?» «Итак, позвольте мне рассказать вам о причинах этой навязчивой идеи. Все..

Часть предварительной обработки текста — 2
Предварительная обработка текста является неотъемлемой частью обработки естественного языка, поскольку ни одна модель машинного обучения не может обрабатывать текстовые данные напрямую. В этой части мы подробно рассмотрим различные механизмы векторизации текста, которые может предложить сообщество разработчиков ИИ… Я бы посоветовал вам прочитать мой предыдущий блог с общим и высокоуровневым обзором методов предварительной обработки текста, прежде чем переходить к векторизации, но это не..

Привет Бенуа
Привет Бенуа Спасибо за познавательный пост, это именно то, что я искал! Но я немного запутался в результатах, которые я получил после небольшого эксперимента - я изменил функцию generate_data на больший диапазон и больше точек данных: X_train = np.atleast_2d(np.random.uniform(0, 20.0, size=300)).T X_test = np.atleast_2d(np.linspace(0, 20.0, 1000)).T Никаких других изменений кроме этих. Это результаты, которые я получил, которые сбивают с толку, я что-то упускаю?

Опорные векторные машины (SVM) Объяснение и мини-проект
Мы поговорим о машинах опорных векторов (объяснение, некоторые варианты использования и как реализовать простую модель SVM для классификации и регрессии) Определение Машины опорных векторов или разделители больших полей (являются обобщением линейного классификатора) - это набор методов контролируемого обучения для решения задач классификации и регрессии , разработанный в 1990-х годах на основе теоретических соображений Владимира Вапника о развитии теории статистики..

Понимание уменьшения размерности
Иногда ваши данные имеют множество функций. На самом деле, если у вас их больше трех, полезная визуализация и понимание могут быть затруднены. В контексте машинного обучения большое количество признаков также может привести к проклятию размерности и возможности переобучения . Введите это семейство алгоритмов: уменьшение размерности . Основной целью алгоритма уменьшения размерности является уменьшение количества признаков ваших входных данных. Формально это отображение из..

Сравнение масштабаторов машинного обучения
Что отличает различные масштабаторы, доступные в sklearn? Масштабирование является жизненно важным этапом предварительной обработки в нашем рабочем процессе машинного обучения при работе с функциями, которые имеют разные величины. Масштабируя, мы можем более точно сравнивать наши функции и достигать лучших результатов моделирования. Самой популярной библиотекой Python для машинного обучения является scikit-learn (обычно называемая sklearn), которая поставляется с пакетом предварительной..

Текст песни и исследование гимна
Использование кластеризации kMeans, PCA и машинного обучения Введение / TL; DR Этот проект исследует кластеризацию с использованием немаркированных данных, собранных из текстов песен для 80 лучших песен Billboard всех времен, а также переводов большинства национальных гимнов со всего мира. Я буду использовать kMeans, анализ основных компонентов (PCA), TfidVectorizer и исследовательский анализ, чтобы изучить группы кластеров и обнаружить интересные закономерности или тенденции в данных...