Машинное обучение — это использование правильных функций для создания правильных моделей, которые обеспечивают правильные задачи.

Возможности: рабочие лошадки машинного обучения.

Модели: результаты машинного обучения.

Задачи: проблемы, которые можно решить с помощью машинного обучения.

Особенности определяют большую часть успеха приложения ML, потому что модель настолько хороша, насколько хороши ее функции.

В этой статье мы сосредоточимся на МОДЕЛЯХ. Давайте продолжим наше модельное путешествие…✈️

Модели являются центральной концепцией машинного обучения, поскольку они изучаются из данных для решения поставленной задачи. Существует огромное количество доступных моделей машинного обучения. В частности, это связано с вездесущностью задач, которые призвано решать машинное обучение. Мы видим 3 наиболее распространенные группы моделей: Логические, Геометрические и Вероятностные модели. Давайте подробно рассмотрим каждую категорию моделей.

ЛОГИЧЕСКИЕ МОДЕЛИ

«Логический», поскольку модели такого типа можно легко преобразовать в правила, понятные людям, например ., если лотерея = 1, тогда класс = Y = спам. Такие правила легко организовать в виде древовидной структуры, которую мы называем деревом функций. Идея такого дерева заключается в том, что функции используются для итеративного разделения пространства экземпляра. Таким образом, листья дерева соответствуют прямоугольным областям пространства экземпляров (или, в более общем случае, гиперпрямоугольникам), которые мы будем называть сегментами пространства экземпляров или, для краткости, сегментами. В зависимости от задачи, которую мы решаем, мы можем пометить листья классом, вероятностью, действительным значением и так далее.

Деревья функций, листья которых помечены классами, обычно называются деревьями решений.

Простая логическая модель показана ниже:

Дерево, показывающее выживаемость пассажиров «Титаника» («sibsp» — количество супругов или братьев и сестер на борту). Цифры под листьями показывают вероятность выживания и процент наблюдений в листе. Подводя итог: ваши шансы на выживание были хорошими, если вы были (i) женщиной или (ii) мужчиной моложе 9,5 лет и имели строго менее 3 братьев и сестер.

Чтобы глубже понять логические модели, нам нужно понять концепцию концептуального обучения, которую я буду обсуждать в своих следующих блогах. Ух ты! Мы всего в двух шагах… Не могу больше ждать (๑›ᴗ‹๑). Давайте быстро углубимся в наши геометрические модели.

ГЕОМЕТРИЧЕСКИЕ МОДЕЛИ

Прежде чем узнать, что такое геометрическая модель?, какие ее виды?, как они работают? и т. д. Давайте сначала узнаем, что такое «экземплярное пространство»??.

пространство экземпляров – это набор всех возможных или поддающихся описанию экземпляров, независимо от того, присутствуют они в нашем наборе данных или нет. Обычно это множество имеет некоторую геометрическую структуру. Например, если все функции числовые, то мы можем использовать каждую функцию как координату в декартовой системе координат.

Обучение геометрическим моделям/элементам – это метод объединения машинного обучения и компьютерного зрения для решения визуальных задач. Эти модели определяют сходство, учитывая геометрию пространства экземпляров. Здесь объекты могут быть описаны как точки в двух измерениях (оси x и y) или в трехмерном пространстве (x, y и z). Даже если элементы не являются геометрическими по своей сути, их можно смоделировать геометрическим образом. Однако важно помнить, что декартово пространство экземпляров имеет столько координат, сколько признаков, которых может быть десятки, сотни, тысячи и даже больше. Такие многомерные пространства трудно себе представить, но они распространены в машинном обучении. Геометрические понятия, которые могут применяться к многомерным пространствам, часто имеют префикс «гипер-»: например, граница принятия решения с бесконечными измерениями называется гиперплоскостью. Основное преимущество геометрических классификаторов заключается в том, что их легко визуализировать, если мы придерживаемся двух или трех измерений.

Геометрические модели в основном бывают двух типов:

  1. Геометрическая модель, построенная непосредственно в пространстве экземпляров с использованием таких геометрических понятий, как линии или плоскости, используется для сегментирования пространства экземпляров, известных как линейные модели.
  2. Геометрическая модель, которая использует расстояние в качестве метрики для представления сходства между экземплярами, известна как Модели, основанные на расстоянии. Обычно используются следующие показатели расстояния: Евклидов, Минковский, Манхэттен. и Махаланобис.

Линейные модели

Для классификации экземпляров линейная модель использует следующее уравнение: f(x) = a + bx, если x и f(x) являются скалярами и если x = (x1 , . . .,xd ) — вектор, а f (x) — скаляр, то f имеет вид f(x) = a +b1x1 +. . .+bd xd = a + b · x, где b = (b1, . . ., bd ). Уравнение f (x) = 0 определяет плоскость в Rd, перпендикулярную вектору нормали b.

Линейные модели существуют для всех задач прогнозирования, включая классификацию, оценку вероятности и регрессию. Например.,

а) Часы, потраченные на изучение Vs. Оценки, выставленные учащимися

б) количество осадков по сравнению с. Сельскохозяйственная урожайность

c) Использование электроэнергии по сравнению с. Счет за электричество

г) Уровень самоубийств по сравнению с. Количество стрессовых людей

Существуют различные линейные модели, такие как метод наименьших квадратов (математический регрессионный анализ), метод опорных векторов (который лучше всего разделяет два или более классов с помощью гиперплоскости).

Модели на основе расстояния

Очень полезным геометрическим понятием в машинном обучении является понятие расстояния. Если расстояние между двумя экземплярами невелико, то экземпляры похожи с точки зрения значений их признаков, и поэтому можно ожидать, что соседние экземпляры получат одинаковую классификацию или будут принадлежать к одному и тому же кластеру. В декартовой системе координат расстояние может быть измерено с помощью евклидова расстояния, которое представляет собой квадратный корень из суммы квадратов расстояний по каждой координате.

Для классификации нового экземпляра мы извлекаем из памяти наиболее похожий обучающий экземпляр (т. е. обучающий экземпляр с наименьшим евклидовым расстоянием от классифицируемого экземпляра) и просто присваиваем этому обучающему экземпляру класс. Этот классификатор известен как классификатор ближайшего соседа. Существует бесконечное количество вариаций этой простой, но мощной темы: мы можем получить k наиболее похожих обучающих экземпляров и провести голосование (k-ближайший сосед).

Следовательно, мы можем использовать среднее значение набора близлежащих точек в качестве репрезентативного образца для этих точек. Предположим, мы хотим сгруппировать наши данные в K кластеров, и у нас есть начальное предположение о том, как данные должны быть сгруппированы. Затем мы вычисляем средние значения каждого начального кластера и переназначаем каждую точку ближайшему среднему кластеру. Мы повторяем эти два шага (вычисление кластерных средних и переназначение точек кластерам) до тех пор, пока не произойдет никаких изменений. Это алгоритм кластеризации, который называется К-средних.

Еще одна кластеризация на основе расстояния — это Иерархическая кластеризация, алгоритм, который строит иерархию кластеров. Этот алгоритм начинается со всех точек данных, назначенных собственному кластеру. Затем два ближайших кластера объединяются в один кластер. В конце концов, этот алгоритм завершается, когда остается только один кластер.

Ух ты! Мы в двух шагах отсюда. Следующей и последней моделью являются вероятностные модели. Давайте посмотрим, чем он отличается от двух других моделей.

ВЕРОЯТНОСТНЫЕ МОДЕЛИ

Вероятностная модель/метод основана на теории вероятности или на том факте, что случайность играет роль в предсказании будущих событий.

Пусть X обозначает переменные, о которых мы знаем, например, значения характеристик нашего экземпляра; и пусть Y обозначает интересующие нас целевые переменные, например, класс экземпляра. Ключевой вопрос в машинном обучении заключается в том, как смоделировать взаимосвязь между X и Y. Подход статистика состоит в том, чтобы предположить, что существует некий лежащий в основе случайный процесс, который генерирует значения для этих переменных в соответствии с четко определенным, но неизвестным распределением вероятностей.

Поскольку X известно для конкретного случая, но Y может не быть, нас особенно интересуют условные вероятности P (Y | X), где мы предсказываем значение Y на основе X. Наивный байесовский пример — это пример вероятностных моделей, который следует Теорема Байеса.

P (Y / X) = апостериорная вероятность (вероятность гипотезы верна при наличии доказательств)

P(X/Y) = отношение правдоподобия (вероятность увидеть доказательства, если гипотеза верна)

P (Y) = априорная вероятность класса (вероятность гипотезы верна до того, как будут представлены какие-либо доказательства)

P(X) = Predictor Априорная вероятность (вероятность наблюдения свидетельства)

Теперь у нас есть некоторое представление о том, как выглядит вероятностная модель. Во многих случаях это будет вопрос оценки параметров модели по данным, что обычно достигается путем прямого подсчета.

ПРИМЕЧАНИЕ. Целью машинного обучения на основе моделей является то, что единая среда моделирования должна поддерживать широкий спектр моделей.

Хаххх..!! Почти до сих пор. Наконец мы дошли до конца. В моих следующих блогах мы подробно рассмотрим, как работает каждый алгоритм (обсуждаемый выше). А пока Удачного машинного обучения :)