Кикстарт по наивному Байесу:

Наивный байесовский алгоритм машинного обучения, основанный на классификации, предсказывает результаты на основе извлеченных или обученных данных. Эта концепция наивного Байеса полностью восходит к происхождению Вероятности. Он основан на идее, что критерии категоризации независимы друг от друга, т. Е. Наличие или отсутствие одного признака не влияет на наличие или отсутствие любого другого признака. Основываясь на встречаемости характеристик каждого класса, он определяет вероятность того, что экземпляр будет принадлежать этому классу, и выбирает класс с наибольшей вероятностью быть предсказанным классом. Хотя метод Наивного Байеса прост и прямолинеен, допущение о независимости не всегда верно для сложных задач.

Использование вероятности в Наивном Байесе:

Вероятность играет априорную и ключевую роль в этом алгоритме, где она используется для оценки экземпляра, к какому классу он принадлежит, на основе появления извлеченных признаков.

Вероятность особенности:

В этой части этот алгоритм вычисляет количество вхождений класса на основе извлеченных обучающих данных.

Предыдущая вероятность:

Это базовая вероятность того, что событие произойдет до принятия во внимание какой-либо дополнительной информации или доказательств. априорные вероятности очень важны для наивного алгоритма Байеса, чтобы установить начальное предположение о том, к какому классу принадлежат функции экземпляра.

Условная возможность:

На основе вывода из априорной вероятности он адаптируется ко многим условиям в характеристиках обученных данных и предсказывает вероятность прогноза и предсказывает, к какому классу он принадлежит на основе обученных моделей данных.

Оценка максимального правдоподобия:

Эта оценка максимального правдоподобия (MLE) используется для поиска наиболее наблюдаемых данных из пользовательского ввода для прогнозирования результата.

Теорема Байеса:

Теорема Байеса, математическая формула, которая использует условные вероятности для обновления вероятностей в свете новых данных, применяется с помощью алгоритма наивного Байеса. Апостериорная вероятность экземпляра, принадлежащего каждому классу, с учетом его признаков определяется с помощью теоремы Байеса.

В алгоритме наивного байесовского классификатора существует много типов подходов, основанных на распределении вероятности, что они

Гауссовский наивный байесовский метод:

Предполагается, что признаки, которые обычно представляют собой непрерывные числовые значения, имеют гауссово (нормальное) распределение. Когда характеристики непрерывны, как в медицинской диагностике, где признаки могут включать показания многочисленных физиологических показателей, используется такой классификатор.

Допустим, мы хотим определить риск развития диабета у человека на основе его возраста, ИМТ и артериального давления. У нас есть набор данных из 1000 пациентов, 500 из которых больны диабетом, а 500 — нет. Возраст, ИМТ и артериальное давление являются характеристиками, и мы предполагаем, что они имеют гауссово (нормальное) распределение. На основе этого набора данных мы можем обучить классификатор Gaussian Naive Bayes, чтобы определить, есть ли у нового пациента диабет или нет.

Сначала мы определяем среднее значение и стандартное отклонение каждого признака для каждого класса (с диабетом и без диабета), чтобы обучить классификатор. Например, мы независимо определяем среднее значение и стандартное отклонение возраста для пациентов с диабетом и без него. Эти статистические данные о среднем значении и стандартном отклонении используются для расчета условной вероятности каждого признака данного класса.

Рассмотрим нового пациента, который соответствует следующим критериям: возраст 50 лет; ИМТ 30; и кровяное давление 130. Обученный гауссовский наивный байесовский классификатор можно использовать для определения того, есть ли у этого пациента диабет. Чтобы определить вероятность того, что пациент попадает в категорию пациентов с диабетом или без него, мы сначала вычисляем условную вероятность каждого признака для данного класса. Наконец, мы решаем, какой класс использовать в качестве прогнозируемого класса нового пациента, выбирая тот, который имеет наибольшую вероятность.

Для исходного кода и набора данных посетите: https://github.com/HARSHANKUMARHRK/deep-learning/blob/master/nav1.ipynb

Полиномиальный наивный байесовский метод:

Рассмотрим сценарий, в котором мы хотим классифицировать электронные письма как спам или не спам (ветчина) в зависимости от слов, которые они содержат. У нас есть набор данных из 1000 электронных писем, 500 из которых являются спамом, а 500 — нет. Мы предполагаем, что признаки (слова) распределены полиномиально. На основе слов в электронном письме мы можем использовать этот набор данных для обучения мультиномиального наивного байесовского классификатора для классификации свежих электронных писем как спама или нет.

Сначала мы создали словарь всех отдельных слов, найденных в электронных письмах, чтобы обучить классификатор. Затем определяется частота каждого слова в каждом электронном письме, и с использованием этих частотных подсчетов строится матрица терминов документа. Эта матрица используется для определения условной вероятности каждого слова данного класса (спам или не спам).

Допустим, у нас есть новое письмо со следующими словами: «выигрыш», «приз», «деньги» и «предложение». Мы можем использовать обученный мультиномиальный наивный байесовский классификатор, чтобы классифицировать это электронное письмо как спам или не спам. Мы вычисляем условную вероятность каждого слова, данного классу, а затем перемножаем эти вероятности вместе, чтобы получить вероятность того, что электронное письмо принадлежит каждому классу (спам и не спам). Наконец, мы выбираем класс с более высокой вероятностью в качестве прогнозируемого класса для нового электронного письма.

Для исходного кода и набора данных посетите: https://github.com/HARSHANKUMARHRK/deep-learning/blob/master/nav2.ipynb

Заключение:

В заключение следует отметить, что метод наивной байесовской классификации является популярным и успешным методом, который часто используется в машинном обучении. Он хорошо работает с многомерными и разреженными данными, поскольку основан на теореме Байеса и предположении о независимости признаков. Гауссовский, полиномиальный и бернуллиевский наивный байес — это несколько вариаций наивного байесовского метода, которые можно использовать для различных приложений и типов данных. Наивный Байес может выполнять ряд задач, включая категоризацию текста, фильтрацию спама, анализ настроений и медицинскую диагностику, с высокой точностью и простотой реализации. Наивный байесовский метод по-прежнему является полезным методом в наборе инструментов машинного обучения и хорошо подходит для любой задачи классификации, несмотря на его простоту и недостатки.