Мир машинного обучения и искусственного интеллекта в наши дни ожидается довольно часто. И на это есть веская причина в современном мире. Изучение данных и их влияние сильно повлияют на нашу жизнь, и время не будущее. Будущее сейчас точно.

Применение искусственного интеллекта и машинного обучения безгранично. И большинство из нас ежедневно читают сотни статей, новостей, постов в социальных сетях, благословляя влияние Исследования данных, которое оказывает влияние на нашу жизнь.

Но сегодня я хотел бы поговорить о логистической регрессии. Это метод классификации, который используется для определения того, относится ли точка запроса или объект к той или иной категории. Позвольте мне еще немного упростить это. Возьмем пример, который изображен выше. Речь идет об определении того, является ли фрукт яблоком или не яблоком.

Обычно в нашей программе мы используем данные о свойствах фруктов. Это называется особенностями машинного обучения. Нравится округлость, цвет, вкус, свойства семян и многое другое. И, конечно же, мы пытаемся представить их в определенных размерах, чтобы компьютер мог понять то же самое.

Итак, наш алгоритм обрабатывает данные/свойства каждого фрукта. И данные проходят через американские горки, пока наша машина не узнает о данных и их свойствах. Точнее, наша машина определяет, является ли предоставленный нам фрукт яблоком или нет.

Давайте погрузимся в концептуальную часть и попытаемся понять, как именно работает логистическая регрессия. Рассмотрим изображение ниже:

Как обсуждалось ранее, наша цель предсказать, является ли фрукт яблоком или нет. Теперь предположим, что нам дан огромный набор данных, и теперь наш алгоритм будет изучать свойства фруктов и различать, является ли наш фрукт яблоком или нет. Предположим, что красные точки говорят нам, что наш фрукт — яблоко (скажем +ve point), а синие точки говорят, что фрукт не яблоко (скажем —ve point).

Работа логистической регрессии состоит в том, чтобы получить границу или границу Решения, которая как можно точнее разделяет точки +ve и -ve. Итак, у нас есть два класса +ve и -ve.

Допущение логистической регрессии: классы почти/идеально линейно отделимы границей решения. А в большой размерной или n-мерной плоскости уравнение плоскости дается выражением:

где w — вектор нормали, перпендикулярный поверхности решения, w^Tx — плоскость, а b — константа. На рисунке выше di — это расстояние от точки +ve до плоскости, а dj — расстояние от точки с минусом до плоскости.

Здесь

является единичным вектором.

В настоящее время

потому что наша плоскость и Xi(+ve points) находятся на одной стороне плоскости и, следовательно, di равно +ve.

так же

потому что плоскость и Xj(-ve точек) находятся на противоположной стороне плоскости и, следовательно, dj равно -ve.

Предположим, что Yi и Yj — это прогнозируемые точки после наблюдения точки запроса с помощью нашей модели логистической регрессии. Потом:-

if

тогда

и

if

тогда

.

Наш классификатор логистической регрессии после обработки точек запроса делает следующие выводы:

если мои точки запроса и его прогнозируемый результат находятся на одной стороне плоскости, то оба

и Yi +ve. и, следовательно

.

Точно так же, если мои точки запроса и его прогнозируемый результат находятся на другой стороне плоскости, тогда оба

а Yi — это -ve. и, следовательно

.

Задача логистической регрессии состоит в том, чтобы найти w и b, чтобы мы могли найти

, который может почти линейно разделить плоскость на 2 половины.

Выше было слишком много математики. Подытожим просто. Здесь вся игра заключается в том, чтобы найти оптимальную плоскость, которая существенно разделила бы мои точки на две разные стороны. Логистическая регрессия — это поиск наилучшего возможного плана. Назовем оптимальную плоскость идеальной плоскостью нашей модели.

Идеальная плоскость найдена после тщательного наблюдения за моими точками запроса с помощью моей модели логистической регрессии, и ее уравнение определяется следующим образом:

Где w(star) — мой идеальный самолет. Помните

называется расстоянием со знаком.

Один из примеров практического примера логистической регрессии:

Надеюсь, вам понравилось читать. Расскажите мне о своем опыте в разделе комментариев. В ближайшем будущем я напишу больше блогов о логистической регрессии вместе с реализацией кода на Python. И следите за обновлениями моего блога, чтобы не пропустить другие интересные блоги о машинном обучении. Спасибо, что читаете!

Первоначально опубликовано на сайте www.siliconbuddy.com 21 августа 2018 г.