Публикации по теме 'probability'


Ожидание и отклонение от нуля до мастерства
Интуиция и математическое понимание от случайной величины к байесовской статистике Введение Ожидания и отклонения - одна из основных, но, тем не менее, важных тем. Специалистам по обработке данных важно глубоко разбираться в предмете, чтобы решать статистические проблемы и понимать машинное обучение. Давайте проведем быстрый тест, чтобы проверить ваше понимание. Как вы получаете ожидания и отклонения от PDF или CDF? Какие есть другие методы, если PDF или CDF не определены четко?..

Основы определения из теории множеств
Вот несколько общих определений, которые можно найти в операциях над множествами: Дополнение : набор, содержащий все элементы, не принадлежащие набору примеров S . Математически это можно записать как S^c = U \ A Объединение : комбинация двух наборов, при которой все элементы, принадлежащие данным наборам A или B (или обоим наборам), содержатся в новом наборе A ∪ B . Пересечение : комбинация двух наборов, при которой только элементы, принадлежащие данным наборам A и B..

Объяснение походки пьяницы
Случайные процессы, марковские цепи и случайные блуждания Жил-был пьяный человек, который подошел слишком близко к обрыву. С того места, где он стоит, один шаг вперед отправит пьяного мужчину через край. Он делает случайные шаги к обрыву или от него. На любом шаге его вероятность сделать шаг в сторону - 2/3, а шаг к обрыву - 1/3. Каков его шанс сбежать со скалы? Случайные процессы, случайные блуждания и цепи Маркова Эта классическая задача - прекрасный пример тем, которые..

Причинно-следственный вывод - Часть XI - Критерий бэкдора
Причинный вывод Критерий бэкдора Это одиннадцатый пост из серии, в которой мы прорабатываем Причинный вывод в статистике - красивое учебное пособие, соавтором которого является сам Judea Pearl . Вы можете найти предыдущий пост здесь и весь соответствующий код Python в сопутствующем репозитории GitHub: DataForScience / Причинность Как причины приводят к следствиям? Можете ли вы связать причину, приведшую к наблюдаемому результату? Большие..

Хорошая статья, но абзацы, относящиеся к «оценке P(X=x) по f(x)», вводят в заблуждение.
Хорошая статья, но абзацы, относящиеся к «оценке P(X=x) по f(x)», вводят в заблуждение. Для непрерывной случайной величины X P (X = x) = 0 независимо от того, какое значение f (x) принимает, как вы правильно указали. Вся эта процедура оценивания, предложенная в статье, имеет мало смысла или вообще не имеет смысла, поскольку в выражении f(x)dx x фиксировано , а значит, f(x) фиксировано также, таким образом, если dx сходится к 0, это приводит к тому, что f(x)dx тривиально сходится к 0..

Почему наивная теорема Байеса такая наивная?
Наивный алгоритм Байеса - это алгоритм классификации, основанный на знаменитой теореме Байеса. Итак, давайте сначала разберемся, о чем говорит теорема Байеса, и составим интуитивное представление о наивной теореме Байеса, как она работает и что в ней такого наивного? Теорема Байеса Прежде чем погрузиться в теорему Байеса, нам нужно понять несколько терминов: Независимые и зависимые события Предельная вероятность Совместная вероятность Условная возможность Независимые и..

Введение в вероятностное глубокое обучение, объясненное простыми словами
Глубокое обучение - это не что иное, как вероятность. В нем задействованы два принципа: один - максимальная вероятность, а другой - байесовский. Все дело в максимизации функции правдоподобия , чтобы найти распределение вероятности и параметры, которые лучше всего объясняют данные, с которыми мы работаем. Байесовские методы вступают в игру, когда наша сеть должна сказать: «Я не уверен». Он находится на стыке архитектуры глубокого обучения и байесовской теории вероятностей. В целом..