Вы когда-нибудь задумывались, как ваш провайдер электронной почты реализует фильтрацию спама? Или как новостные онлайн-каналы выполняют классификацию текста новостей? Или как компании проводят анализ настроений своей аудитории в социальных сетях?

С помощью алгоритма машинного обучения, который называется Наивный байесовский классификатор, вы можете делать все это.

Наивный байесовский классификатор работает по принципу условной вероятности в соответствии с теоремой Байеса.

Наивный байесовский алгоритм – это алгоритм классификации, относящийся к категории обучения с учителем.

Алгоритм наивного Байеса— это вероятностный метод.

Теорема Байеса вычисляет условную вероятность возникновения события на основе предварительного знания условий, которые могут быть связаны с событием.

Где используется наивный байесовский анализ?

Вы можете использовать Наивный Байес для следующих вещей:

Распознавание лиц

В качестве классификатора он используется для идентификации лица или других его особенностей, таких как нос, рот, глаза и т. д.

Прогноз погоды

С его помощью можно предсказать, будет ли погода хорошей или плохой.

Медицинский диагноз

Врачи могут диагностировать пациентов, используя информацию, которую предоставляет классификатор. Медицинские работники могут использовать наивный байесовский метод, чтобы указать, подвержен ли пациент высокому риску определенных заболеваний и состояний, таких как болезни сердца, рак и другие заболевания.

Классификация новостей

С помощью наивного байесовского классификатора Google News распознает, являются ли новости политическими, мировыми и т. д.

Возьмем пример

Мы классифицируем, подходит ли день для игры в гольф или нет. У нас есть четыре независимых функции (прогноз, температура, влажность и ветер) и одна зависимая функция Play Golf.

Переменная y — это переменная класса, которая показывает, подходит ли она для игры в гольф или нет с учетом условий, где x представляет функции.

Здесь x_1,x_2….x_n представляют функции, т. е. они могут быть сопоставлены с внешним видом, температурой, влажностью и ветром. Заменив X и расширив с помощью полученного цепного правила,

интерес представляет только числитель этой дроби, потому что знаменатель не зависит от y, а значения признаков x1,x2,x3,x4………….xn заданы так, что знаменатель фактически постоянен. Числитель эквивалентен режиму совместной вероятности.

Теперь вступают в игру «наивные» предположения об условной независимости: предположим, что все признаки в x взаимно независимы, зависят от категории при этом предположении, совместная модель может быть выражена как

Используя приведенную выше функцию, мы можем получить класс, учитывая предикторы.

Возьмем пример

Это таблица частот из приведенного выше набора данных:

пример 1: P (прогноз = солнечно | y = да) = 3/9

пример 2: P(прогноз=пасмурно|y=да)=4/9

пример 3: P (прогноз = дождь | y = нет) = 3/5

Решите вероятность другого признака, как указано выше:

Ссылка: Википедия

Это все для понимания алгоритма наивного байесовского классификатора в машинном обучении! Следите за появлением новых блогов, в которых более подробно рассматриваются конкретные темы.

Если вам нравится моя работа и вы хотите быть в курсе последних публикаций или хотите связаться со мной, меня можно найти на Medium по адресу SURAJ GUSAIN — Спасибо!

Если вам понравился этот пост, немного дополнительной мотивации будет полезно, если вы похлопаете этому посту 👏. Я всегда открыт для ваших вопросов и предложений. Вы можете поделиться этим на Facebook, Twitter и Linkedin, так что кто-то в этом может наткнуться.

Вы можете связаться со мной по адресу:

Linkedin: https://www.linkedin.com/in/suraj020/

Гитхаб: https://github.com/SurajGusain0007

Kaggle: https://www.kaggle.com/surajgusain015

Счастливого обучения :)