Публикации по теме 'probability'


Кульбак-Лейблер (KL) Дивергенция и кросс-энтропия
Объясняя происхождение и давая интуитивное представление о том, что они составляют Дивергенция Кульбака-Лейблера является мерой различия между двумя распределениями вероятностей. Вы, наверное, много раз видели эту концепцию в области машинного обучения. В частности, на эту концепцию в значительной степени полагаются при получении нижней границы доказательства (ELBO), которая появляется в вариационных автокодировщиках (VAE) и моделях распространения. Вывод Чтобы интуитивно понять..

Интуиция для независимых и одинаково распределенных
Наука о данных Интуиция для независимых и одинаково распределенных Понимание ключевого допущения в статистике и его последствий Основная цель науки о данных в целом и машинного обучения в частности - использовать прошлое для предсказания будущего. Помимо конкретных предположений различных статистических моделей, неизбежным является предположение о том, что будущее можно предсказать на основе прошлых событий. Мы предполагаем, что существует некоторая функция, которую мы можем..

Методы калибровки в глубоких нейронных сетях
Введение Было показано, что классификаторы глубоких нейронных сетей неправильно откалиброваны [1], т. е. их вероятности предсказания не являются надежными оценками достоверности. Например, если нейронная сеть классифицирует изображение как «собаку» с вероятностью p , p нельзя интерпретировать как достоверность предсказанного сетью класса для изображения. Кроме того, классификаторы нейронных сетей часто слишком самоуверенны в своих прогнозах [1]. Классификатор калиброванной нейронной..

Обнаружение актуальных тем теории вероятностей с помощью BERTopic
Введение Любой, кто пытался ознакомиться с новой областью исследований, может признать, что это может оказаться сложной задачей. Попытка быстро установить смысл различных тем исследования в области может быть сложной задачей. Даже если вы имеете представление об исследовательском ландшафте, отслеживание эволюции этих тем может оставаться сложной задачей. В этой статье я хочу обсудить, как можно использовать тематическое моделирование и кластеризацию для решения этих проблем. Нашим..

Преобразование между марковскими и байесовскими сетями
В последних нескольких статьях мы рассмотрели различные темы, касающиеся как байесовских , так и марковских сетей . Мы видели, как каждый из них может представлять ограничения независимости, которые не могут быть реализованы другим. Однако в этой статье мы хотим проверить, возможно ли и как перейти от одного к другому. От байесовской сети к сети Маркова Мы можем начать с рассмотрения того, как мы можем перейти от байесовской сети к сети Маркова. Мы можем начать с того, что вспомним,..

Функция плотности вероятности
Функция плотности вероятности (PDF) — это функция плотности, использующая метод оценки плотности ядра , который позволяет нам понять плотность точки данных в определенном диапазоне. Например: если у нас есть одна переменная в наборе данных и мы должны выполнить одномерный анализ, особенно для числовой переменной, мы используем гистограмму. Гистограмма  – это график, на котором мы делим наблюдения на интервалы и вычисляем количество частот в интервалах поверх него. Мы наносим подсчет..

Байесовская статистика — вероятностный подход
Введение - Одной из областей моих исследований является использование процесса моделирования байесовской статистики в области вероятностного программирования и использование знаний предметной области для моделирования переменной или признаков в наборе данных и их построения таким образом, чтобы обеспечить математическое обоснование, например, в какой коэффициент изменения определенной переменной может помочь нам предсказать целевую переменную. По сути, в этой статье я поделился отчетом о..