Публикации по теме 'markov-chains'


Галактические приключения Марка В. Шейни
Галактические приключения Марка В. Шейни Один из самых талантливых и глубоких коллег в моей жизни был не человеком, а алгоритмом: цепью Маркова. Наше маловероятное партнерство длится три десятилетия и представляет собой новогоднюю сказку, выливающуюся из хакерской шляпы фокусника в космическую плазму и через оптимизатор закрытия ипотеки. Сокровищница компьютерного журнала отца Ребенком в конце 1980-х я пережил золотой век печатных компьютерных журналов. Мой отец был подписан..

Игра в футбол: реализация и сравнение четырех мультиагентных алгоритмов Q-обучения
Абстрактный Эми Гринвальд и Кейт Холл представили коррелированное Q-обучение в 2003 году как решение проблемы выбора равновесия, когда несколько политик равновесия появляются в многоагентной задаче. В этой статье успешно воспроизведена реализация четырех многоагентных алгоритмов Q-обучения, включая Q-обучение, Friend-Q-обучение, Foe-Q-обучение и коррелированное-Q-обучение, в условиях футбольной игры в разделе 5 статьи. Результат показал аналогичные результаты для бумаги. 1...

Алгоритм цепи Маркова в спорте
Как спортивный энтузиаст, вы всегда блуждаете в своих мыслях, чтобы выбрать лучшего игрока, на самом деле, какая команда выиграет. Например, если вы можете предсказать, какой тип мяча будет подавать боулер или какой удар сыграет игрок с битой, или как игрок будет отбивать мяч в земле, если мяч перешел к нему. Это поможет лучше понять игрока, менеджера или тренера в контексте тактических и технических аспектов. В рамках этого обсуждения я остановлюсь на двух видах спорта: крикете и футболе...

Цепь Маркова Монте-Карло
Цепь Маркова Монте-Карло Визуальная интерпретация с Python Цепь Маркова может быть определена как случайный процесс Y, в котором значение в каждый момент времени t зависит только от значения в момент времени t-1. Это означает, что вероятность того, что наш стохастический процесс будет иметь состояние x в момент времени t, учитывая все его прошлые состояния, равна вероятности наличия состояния x в момент времени t, учитывая только его состояние в момент времени t-1. Если набор..

Цепи Маркова для моделирования CLV: обзор
Эта статья впервые появилась в информационном бюллетене DataMiningApps. Подпишитесь сейчас бесплатно, если вы хотите получать наши тематические статьи первыми, или подпишитесь на нас @DataMiningApps . Вы также хотите внести свой вклад в брифинги по науке о данных? Отправьте нам электронное письмо по адресу [email protected] , и мы свяжемся с вами! Предоставили: Барт Басенс , Сеппе ванден Бруке Давайте начнем с основной идеи цепей Маркова, прежде чем мы разработаем..

Сообщение в блоге Google Summer of Code III
Время для еще одного поста! Так начался второй период кодирования, и моей первой задачей было реализовать что-то для обнаружения аномалий APC и PVC . В период общения с сообществом я сузил свой поиск до двух очень, очень похожих статей: Система классификации сердечной аритмии в реальном времени с носимыми сенсорными сетями Hu et. др. Новый подход к классификации ЭКГ, основанный на двухслойных HMM в сенсорных сетях тела Liang et. др. Оба они были хорошо процитированы и..

RL часть 3. Марковский процесс принятия решений, политика, уравнение оптимальности Беллмана.
Напомним, что в части 2 мы ввели понятие Марковского процесса вознаграждения, который на самом деле является строительным блоком, поскольку наш агент не может выполнять действия. Это был просто переход из одного состояния в другое вместе с окружающей средой. Это не очень полезно, поскольку мы хотим, чтобы наш агент не только выполнял действия, но и мог выбирать действия. Для этого мы введем в MRP набор действий, чтобы перевести его на Марковский процесс принятия решений , термин,..