Публикации по теме 'gradient-descent'
Оптимизация моделей машинного обучения с помощью градиентного спуска
Градиентный спуск — это широко используемый алгоритм оптимизации для моделей машинного обучения. Идея градиентного спуска состоит в том, чтобы итеративно обновлять параметры модели в направлении наискорейшего спуска функции потерь относительно этих параметров. Это делается путем вычисления градиентов функции потерь для каждого параметра и соответствующей корректировки значений параметров.
Давайте сначала рассмотрим концепцию функции потерь, чтобы лучше понять градиентный спуск. Функция..
Машинное обучение 101
В этом сообщении блога мы кратко рассмотрим следующие темы, чтобы дать вам самое общее представление о машинном обучении:
Что такое машинное обучение? Модели обучения машинного обучения. Оптимизация параметров. Нейронные сети.
Не волнуйтесь, если вы не эксперт - единственные знания, которые вам понадобятся для этого сообщения в блоге, - это базовая математика в средней школе.
Что такое машинное обучение?
Оксфордский словарь определяет машинное обучение как:
«Способность..
Все о — Логистической регрессии
Логистическая регрессия становится методом классификации только тогда, когда результат или целевая переменная носят дихотомический характер и в картину вводится порог принятия решения. Дихотомический означает, что есть два возможных класса. Например, его можно использовать в сценарии, в котором вы прогнозируете модели голосования в США, чтобы предсказать, кто победит на следующих выборах. В таком случае вы бы использовали, если хотите предсказать, будет ли определенный человек голосовать..
Градиентный спуск в глубоком обучении
Это мой первый пост на Medium (пожалуйста, будьте любезны 😅), поэтому позвольте мне представиться.
Я Фабио, и после получения степени в области физики элементарных частиц я работаю в Quantyca (если вам интересно, я предлагаю вам посетить веб-сайт моей компании или нашу страницу linkedin , чтобы узнать, чем мы занимаемся).
Я хотел бы поделиться с вами некоторыми мыслями о градиентном спуске в машинном обучении, которые у меня были во время моей работы в Quantyca Analytics Team и..
Повышение градиента
Вау, я рад, что наконец понял это ❤.
Начиная с нашего понимания AdaBoost.
Адабуст
Предположим для регрессии Прежде всего постройте небольшое дерево из обучающих данных, называемое пнем. Используя ошибки в качестве веса для этого наблюдения (или используйте этот вес наблюдения несколько раз), постройте еще один пень. Повторите шаг 3 до необходимого количества итераций.
Теперь Gradient Boosting работает таким же образом, но есть разница.
Где вместо маленького пня GBM строит..
Многомерная линейная регрессия с нуля в Python
обновление : мы представили приложение для интерактивного обучения машинному обучению / искусственному интеллекту, ›› Попробуйте бесплатно прямо сейчас
Многомерная линейная регрессия
Множественная линейная регрессия - это тип линейной регрессии, когда входные данные имеют несколько функций (переменных).
Представление модели
Подобно простой линейной регрессии, у нас есть входная переменная (X) и выходная переменная (Y). Но входная переменная имеет n n функций...
Введение в обучение машин
Вы, наверное, слышали термин машинное обучение раньше, идею, которую связывают с ростом знаний о каком-то искусственном интеллекте, но вы, возможно, задаетесь вопросом: Как машины на самом деле могут учиться? В этом посте мы поговорим о концепции, известной как Градиентный спуск , чтобы понять на базовом уровне, что происходит за кулисами машинного обучения.
Самая упрощенная форма машинного обучения называется линейной регрессией, которая по сути создает линию наилучшего соответствия...