Публикации по теме 'reinforcement-learning'



Уравнение Беллмана, функции ценности: обучение с подкреплением
Одной из основных концепций обучения с подкреплением являются уравнение Беллмана и функции значения . Если вы заинтересованы в обучении с подкреплением, то концепция уравнения Беллмана и функций значений должна стать вам очень ясной. Четкое понимание этих концепций позволит вам решить большинство проблем обучения с подкреплением, если у вас есть среда для их решения. Прежде чем мы углубимся в эти концепции, если вы не знакомы с компонентами обучения с подкреплением и марковскими..

Глубокое обучение с подкреплением: приключение ИИ за пределами мелководья
Введение Вы когда-нибудь слышали историю об искусственном интеллекте, который сам научился играть в видеоигры? Нет, это не какая-то надуманная сказка, мой друг. Это история о глубоком обучении с подкреплением (DRL). Что такое ДРЛ? DRL — это захватывающая область ИИ, которая произвела фурор в игровом мире, позволяя искусственным агентам научиться играть в игры самостоятельно. Но потенциальное применение DRL выходит далеко за рамки игр. Его можно использовать в различных..

Практическое обучение с подкреплением (2)
Сарса Слабость контроля Монте-Карло мы видели в последней статье (пожалуйста, ознакомьтесь с обозначениями там, прежде чем читать дальше). Все обновления должны ждать окончания эпизода. В этой статье мы представляем новый метод, который обновляется, как только агент делает ход. Происхождение Сарса Чтобы вывести Sarsa, мы используем рекурсивное соотношение, которому удовлетворяет функция ценности действия, известное как уравнение оптимальности Беллмана . Ожидаемые значения..

Демистификация глубоко детерминированного градиента политики (DDPG) с помощью ChainerRL и OpenAI-baselines
Подробное объяснение DDPG, популярного метода обучения с подкреплением и его простой реализации с использованием ChainerRL и Tensorflow. Глубокий детерминированный градиент политики или обычно известный как DDPG - это в основном метод вне политики, который изучает Q-функцию и политику для итерации действий. Он использует данные вне политики и уравнение Беллмана для изучения функции Q, которая, в свою очередь, используется для получения и изучения политики. Процесс изучения: Процесс..

Что такое обучение с подкреплением?
Награды и наказания Машинное обучение - одна из самых обсуждаемых областей в мире информационных технологий. Машинное обучение повсюду, благодаря широкому распространению технологий распознавания изображений и речи, беспилотных автомобилей, рекомендаций по продуктам и обнаружения мошенничества. Одно из подполей машинного обучения направлено на поиск решений проблем посредством самообучения. Здесь мы можем взять пример видеоигр. Когда небольшая группа исследователей из компании..

Обучение с подкреплением — часть 3
Часть 1 здесь . Часть 2 здесь . Исследование Как исследовать? Несколько схем форсирования разведки: Простейшая: случайное действие (Е — жадный) 1. Каждый раз подбрасывать монетку. 2. С (маленький) вероятность Ε, действовать нормально. 3. С (большой) вероятностью 1-Ε, действовать в соответствии с текущей политикой. Проблемы со случайными действиями? В конце концов вы исследуете пространство, но продолжаете метаться, как только обучение завершено. Одно решение: снижать Ε с..