Публикации по теме 'probability'


Вероятности в машинном обучении| Часть 2:
Введение: В первой части этой серии рассказывалось о наивном байесовском классификаторе, который сортирует дискретные категориальные данные по вероятностям для составления прогнозов. Во второй части я расскажу больше о гауссовом наивном байесовском классификаторе, классификаторе, который применяется к наборам данных с числовыми и дискретными функциями. Что такое гауссовский наивный байесовский классификатор? Гауссовский наивный байесовский алгоритм — это алгоритм, который..

Прогнозирование матчей по крикету T20 с помощью имитационной модели мяча
Это сезон, когда нужно много смотреть крикет, и я снова сделал это. Да, каждое лето я провожу себя в лаундже и наблюдаю примерно за семью миллионами часов моего любимого вида спорта, но в прошлом году я решил провести некоторое время между перерывами, работая над прогнозирующей моделью. Моделирование спорта - моя страсть, и это фактически стало тем наркотиком, который изначально заинтересовал меня наукой о данных. В прошлом я обучал моделей предсказанию результатов матчей по регби,..

Объяснение некоторых распределений вероятностей с точки зрения непрофессионала, а также разница между…
Объяснение некоторых распределений вероятностей с точки зрения непрофессионала, а также различия между частотным и байесовским подходами. Как следует из названия, Frequentist означает частоту чего-то. Другими словами, какова частота данных. Например, вы подбросили непредвзятую монету на большое число, и решка появляется дольше, чем решка. Таким образом, частота решки выше, чем решка, и я делаю вывод, что монета смещена в сторону решки. Этот подход является подходом Frequentist...

Предсказание следующего слова с использованием модели Маркова
Если вы когда-нибудь спросите инженера по машинному обучению, как вы будете генерировать текст или строить прогнозную модель, наиболее очевидным ответом будут рекуррентные нейронные сети (RNN), которые слишком специфичны для длительной краткосрочной памяти (LSTM). Традиционные модели более просты и работают лучше по сравнению с моделями глубокого обучения в некоторых случаях ¹ . Это то, что мы исследуем в этой статье. Мы узнаем, как использовать модель Маркова для предсказания слов...

Распределение вероятностей: интуиция для специалистов по данным
Распределение вероятностей: интуиция для специалистов по данным Интуиция и варианты использования гауссова, биномиального и пуассоновского распределения Как специалисту по обработке данных, если вас просят определить средний доход клиентов, как вы это делаете? Наличие ВСЕХ данных о клиентах, конечно, «хорошо иметь», но на самом деле их никогда не существует, и их невозможно собрать. Вместо этого вы получаете небольшую выборку, проводите на ней измерения и делаете прогнозы в..

Математические примитивы для составления алгоритмов машинного обучения
В этом посте освещаются некоторые математические примитивы, необходимые для понимания и построения популярных алгоритмов машинного обучения с использованием только матричного языка программирования. В целом, для большинства методов глубокого обучения и многих методов машинного обучения требуется несколько методов из: Линейная алгебра Многомерное исчисление Численная оптимизация, обычно использующая градиентный спуск или матричные инверсии. Вероятность Сходящиеся..

Теория оценки максимального правдоподобия (MLE) и рабочий пример
Для какого параметра θ наблюдаемые данные имеют наибольшую вероятность? - это очень важный вопрос в машинном обучении, на который нужно ответить, поскольку, когда мы вычисляем параметр, мы можем найти вероятность данной точки данных, и если это так, мы можем классифицировать. следующая строка гласит: «Если вероятность класса p с учетом точки данных x и параметра θ больше, чем вероятность класса q с учетом той же точки данных и параметра θ, следовательно, x принадлежит классу p»...