Публикации по теме 'bayesian-statistics'


Введение в PyMC и язык описания статистических моделей
В нашей предыдущей статье о том, почему большинство примеров байесовского вывода искажают то, что это такое , мы прояснили распространенное заблуждение среди новичков в байесовской статистике. То есть область байесовской статистики определяется НЕ использованием теоремы Байеса, а скорее использованием распределения вероятностей для характеристики неопределенности и рассмотрения всего диапазона возможных результатов. Так, например, вместо того, чтобы говорить, что данное медицинское..

Вероятностное программирование
Я только начал двухмесячную стажировку в Лаборатории информатики. Обычно я работаю над докторской степенью в области моделирования гауссовских процессов для глобальных климатических моделей. Но в течение следующих нескольких недель я буду в лаборатории информатики, изучая вероятностное программирование для вывода в моделях, основанных на физике. Нас интересует моделирование физических систем , таких как атмосфера и океаны. Чтобы построить эти модели, нам сначала нужно знать параметры и..

Визуализация наивной теоремы Байеса
Байесовская теорема, визуализированная с помощью диаграмм Венна, дерева и пирога Вам когда-нибудь приходилось запоминать формулу теоремы Байеса? Визуализируйте теорему Байеса через диаграмму Венна и не нужно запоминать ее снова. На диаграмме Венна ниже вероятность того, что случайно выбранная ученица - это девушка из 100-го класса, P (Девушка) - это доля девушек среди 100 учеников: Условная вероятность того, что она носит розовое платье, учитывая, что ученица - девочка, P..

Почему наивная теорема Байеса такая наивная?
Наивный алгоритм Байеса - это алгоритм классификации, основанный на знаменитой теореме Байеса. Итак, давайте сначала разберемся, о чем говорит теорема Байеса, и составим интуитивное представление о наивной теореме Байеса, как она работает и что в ней такого наивного? Теорема Байеса Прежде чем погрузиться в теорему Байеса, нам нужно понять несколько терминов: Независимые и зависимые события Предельная вероятность Совместная вероятность Условная возможность Независимые и..

Введение в вероятностное глубокое обучение, объясненное простыми словами
Глубокое обучение - это не что иное, как вероятность. В нем задействованы два принципа: один - максимальная вероятность, а другой - байесовский. Все дело в максимизации функции правдоподобия , чтобы найти распределение вероятности и параметры, которые лучше всего объясняют данные, с которыми мы работаем. Байесовские методы вступают в игру, когда наша сеть должна сказать: «Я не уверен». Он находится на стыке архитектуры глубокого обучения и байесовской теории вероятностей. В целом..

Руководство по рекомендательным системам для совместного тематического моделирования
Теория и реализация рекомендательной системы с возможностями внематричного прогнозирования. Рекомендательные системы - это широкий класс моделей машинного обучения, предназначенных для прогнозирования ненаблюдаемой оценки, которую пользователь u поставит элементу i . В этом руководстве мы обсудим совместное моделирование / регрессию тем (CTM / CTR) , представленное Wang and Blei (2011) [3], рекомендательную систему для текстовых элементов с повышенной точностью. и возможности..

Краткое введение в байесовский классификатор (наивный)
Байесовские сети — это формализм для вероятностных рассуждений, которые используются для принятия решений, диагностики и управления сложными системами. Наивный Байес в основном используется в машинном обучении и показал в некоторых областях производительность, сравнимую с производительностью нейронных сетей и обучения дерева решений. Основанный на теореме Байеса, он часто работает на удивление хорошо и широко используется, потому что может выполнять более сложные методы. Цель этого метода..