Чтобы понять концепцию Байеса, мы должны пройти через условную вероятность. Условная вероятность — это чудесная концепция реального приложения, которая работает в повседневной жизни.

«Статистика — это логика неопределенности».

Условная вероятность работает над обновлением пространства выборки, чтобы получить более точные результаты для устранения неопределенности.

Случайный эксперимент:

Это подбрасывание монеты (скажем)

Элементарные результаты:

Результаты подбрасывания монеты {H,T}элементарные результаты не могут быть далее разделены

Пример места:

Выборочное пространство — это совокупность всех возможных результатов случайных экспериментов.

Если подбрасываются две монеты или бросаются игральные кости

Эксперимент

результаты: (H,H),(H,T),(T,H),(T,T)

Теорема Байеса играет важную роль в байесовской статистике. Байесовская статистика — это раздел статистики, в основе которого лежит теорема Байеса.

Он включает в себя обновление предыдущего убеждения на основе новых данных.

В машинном обучении

Теорема Байеса применяется в задачах классификации, таких как классификация априорных, с предоставлением более подробной информации об априорных

При обработке изображений теорему Байеса можно использовать для обновления вероятности того, что изображение содержит определенный объект (например, собаку или кошку) с учетом новых данных (например, характеристик изображения).

Формула:

P(A|B)=P(A∩B)/P(B)

Предположим, что есть 2 события A и B, а S — универсальное множество.

В формуле Байеса, если требуется найти P (A | B), то P (A) является предшествующим, а P (B) — новыми данными. Следовательно, мы обновляем пространство выборки на основе новых данных.

Апостериорная вероятность = вероятность * предыдущая/доказательство

Задний = P (A | B)

Вероятность=P(B|A)

Приор=П(Б)

Из диаграммы мы понимаем, что после обновления выборочного пространства

Мы цинсодер только B

P(A|B)=отношение между P(A∩B) и P(B)

Полная древовидная диаграмма для объяснения условной вероятности

e.g.

предположим, что редкое заболевание поражает одного из каждых 1000 человек в популяции. Предположим, что есть хороший, но не идеальный тест на это заболевание: если у человека есть заболевание, тест также дает положительный результат в 99% случаев. С другой стороны. Тест также дает некоторые ложноположительные результаты. Около 2% неинфицированных пациентов также положительный результат теста. И у вас только что был положительный результат теста. Каковы ваши шансы заболеть этим заболеванием?

Теперь у нас есть два события

A: пациент с заболеванием

B: тест пациента положительный

Из данного:

P(A) — вероятность одного из каждых 1000 человек в популяции.

P(complement of A) — шансы не затронутых людей в популяции

P(B|A) — вероятность положительного результата теста при условии, что пациент инфицирован

P(B| дополнение A) — вероятность положительного результата теста при условии, что пациент не инфицирован

P(A|B) — вероятность заболевания при положительном тесте.

С древовидной диаграммой

P(A|B)= P(B|A)*P(A) ÷ (P(B))

[P(B)=P(B|A)*P(A)+P(B|дополнение A)*P(дополнение A)]

= .99*.001/(.99*.001+.02*.999)

вероятность инфицирования пациента при положительном тесте = 0,047

хотя тест дает точные результаты, но заболевание встречается редко, поэтому пациент получает слишком низкую инфекцию из-за низкого количества тестов.

Дополнительные материалы на PlainEnglish.io. Подпишитесь на нашу бесплатную еженедельную рассылку новостей. Подпишитесь на нас в Twitter, LinkedIn, YouTube и Discord .

Заинтересованы в масштабировании запуска вашего программного обеспечения? Ознакомьтесь с разделом Схема.