Публикации по теме 'markov-decision-process'


Основы обучения с подкреплением : решение конечных MDP
Хотя я бы порекомендовал вам сначала прочитать эту статью. Если вы хотите сразу перейти к примеру с Python, посетите здесь . Самые простые случаи обучения с подкреплением можно представить с помощью набора состояний и действий . Я объясню это на наглядном примере. Допустим, вы играете в такую ​​игру, как Flappy Bird , но с тремя элементами управления: вы можете идти «вверх», «вниз» или «оставаться посередине». Чтобы играть в эту игру, давайте создадим среду. Для простоты мы..

Обучение с подкреплением: Часть 2: Марковский процесс принятия решений
В предыдущем блоге мы узнали, как Агент совершает действия, не зависящие от какой-либо ситуации. Теперь мы обсудим, как агент может изменить действие в другой ситуации или состоянии. Агент создает последовательность или траекторию, которая начинается так: S0, A0, R1, S1, A1, R2, S2, A2, R3,… (состояние, действие, награда) Агент будет в состоянии S0 в момент времени t=0, затем выполнит A0, и в зависимости от среды агент получит R1 и достигнет состояния S1. Марковский процесс..

Обучение с подкреплением: ADP-обучение на основе моделей с реализацией кода
В сегодняшней статье мы сосредоточимся на создании основанного на модели агента адаптивного динамического программирования (ADP) для изучения MDP. Как мы подробно объяснили в предыдущих историях , мы можем использовать итерацию политики или итерацию значения для решения MDP, если мы знаем его функцию вознаграждения и модель перехода. Однако в реальных приложениях это не всегда так. В результате прямое использование старой доброй итерации политики или значения может оказаться..

Марковский процесс принятия решений (MDP)
Марковские процессы принятия решений (MDP) служат математическим формализмом для описания последовательных задач принятия решений. Он используется для формального определения среды в обучении с подкреплением. Агент, который является компонентом, принимающим решения, взаимодействует с этой средой, чтобы изучить желаемое поведение методом проб и ошибок. Обратите внимание, что термины MDP и среда часто используются взаимозаменяемо. Здесь термин MDP используется при описании формальных..

Машинное обучение: понимание процесса принятия решений
Откройте для себя интеллектуальных агентов, алгоритмы среды и обучения Введение В этой статье мы поговорим о принятии решений в машинном обучении. Знакомство с концепцией и методами позволяет нам принимать решения. Как и люди, компьютерные программы учатся принимать решения, изучая информацию и пробуя различные варианты, чтобы найти наилучшее решение.

Выигрыш в блэкджеке с помощью обучения с подкреплением
В этой статье мы рассмотрим использование трех методов обучения с подкреплением (RL) — Q-Learning, Value Iteration (VI) и Policy Iteration (PI) — для поиска оптимальной политики для популярной карточной игры Блэкджек . Существует сопровождающий репозиторий GitHub , который содержит весь код, использованный в этой статье. Политика — это сопоставление всех состояний в игре с действиями, которые должны быть предприняты в этом состоянии. Q-Learning позволяет изучать политику без определения..

FinRL для количественных финансов: Учебное пособие по торговле несколькими акциями
Учебное пособие по использованию FinRL для торговли несколькими акциями в одном блокноте Jupyter | Представлено на NeurIPS 2020: Deep RL Workshop Примечание редакторам Data Science. Хотя мы разрешаем независимым авторам публиковать статьи в соответствии с нашими правилами и рекомендациями , мы не поддерживаем вклад каждого автора. Не следует полагаться на работы автора без консультации с профессионалами. См. Подробности в наших Условиях для читателей . Этот блог представляет..