Публикации по теме 'gradient-descent'


Оптимизация моделей машинного обучения с помощью градиентного спуска
Градиентный спуск — это широко используемый алгоритм оптимизации для моделей машинного обучения. Идея градиентного спуска состоит в том, чтобы итеративно обновлять параметры модели в направлении наискорейшего спуска функции потерь относительно этих параметров. Это делается путем вычисления градиентов функции потерь для каждого параметра и соответствующей корректировки значений параметров. Давайте сначала рассмотрим концепцию функции потерь, чтобы лучше понять градиентный спуск. Функция..

Машинное обучение 101
В этом сообщении блога мы кратко рассмотрим следующие темы, чтобы дать вам самое общее представление о машинном обучении: Что такое машинное обучение? Модели обучения машинного обучения. Оптимизация параметров. Нейронные сети. Не волнуйтесь, если вы не эксперт - единственные знания, которые вам понадобятся для этого сообщения в блоге, - это базовая математика в средней школе. Что такое машинное обучение? Оксфордский словарь определяет машинное обучение как: «Способность..

Все о — Логистической регрессии
Логистическая регрессия становится методом классификации только тогда, когда результат или целевая переменная носят дихотомический характер и в картину вводится порог принятия решения. Дихотомический означает, что есть два возможных класса. Например, его можно использовать в сценарии, в котором вы прогнозируете модели голосования в США, чтобы предсказать, кто победит на следующих выборах. В таком случае вы бы использовали, если хотите предсказать, будет ли определенный человек голосовать..

Градиентный спуск в глубоком обучении
Это мой первый пост на Medium (пожалуйста, будьте любезны 😅), поэтому позвольте мне представиться. Я Фабио, и после получения степени в области физики элементарных частиц я работаю в Quantyca (если вам интересно, я предлагаю вам посетить веб-сайт моей компании или нашу страницу linkedin , чтобы узнать, чем мы занимаемся). Я хотел бы поделиться с вами некоторыми мыслями о градиентном спуске в машинном обучении, которые у меня были во время моей работы в Quantyca Analytics Team и..

Повышение градиента
Вау, я рад, что наконец понял это ❤. Начиная с нашего понимания AdaBoost. Адабуст Предположим для регрессии Прежде всего постройте небольшое дерево из обучающих данных, называемое пнем. Используя ошибки в качестве веса для этого наблюдения (или используйте этот вес наблюдения несколько раз), постройте еще один пень. Повторите шаг 3 до необходимого количества итераций. Теперь Gradient Boosting работает таким же образом, но есть разница. Где вместо маленького пня GBM строит..

Многомерная линейная регрессия с нуля в Python
обновление : мы представили приложение для интерактивного обучения машинному обучению / искусственному интеллекту, ›› Попробуйте бесплатно прямо сейчас Многомерная линейная регрессия Множественная линейная регрессия - это тип линейной регрессии, когда входные данные имеют несколько функций (переменных). Представление модели Подобно простой линейной регрессии, у нас есть входная переменная (X) и выходная переменная (Y). Но входная переменная имеет n n функций...

Введение в обучение машин
Вы, наверное, слышали термин машинное обучение раньше, идею, которую связывают с ростом знаний о каком-то искусственном интеллекте, но вы, возможно, задаетесь вопросом: Как машины на самом деле могут учиться? В этом посте мы поговорим о концепции, известной как Градиентный спуск , чтобы понять на базовом уровне, что происходит за кулисами машинного обучения. Самая упрощенная форма машинного обучения называется линейной регрессией, которая по сути создает линию наилучшего соответствия...