Мир машинного обучения и искусственного интеллекта в наши дни ожидается довольно часто. И на это есть веская причина в современном мире. Изучение данных и их влияние сильно повлияют на нашу жизнь, и время не будущее. Будущее сейчас точно.
Применение искусственного интеллекта и машинного обучения безгранично. И большинство из нас ежедневно читают сотни статей, новостей, постов в социальных сетях, благословляя влияние Исследования данных, которое оказывает влияние на нашу жизнь.
Но сегодня я хотел бы поговорить о логистической регрессии. Это метод классификации, который используется для определения того, относится ли точка запроса или объект к той или иной категории. Позвольте мне еще немного упростить это. Возьмем пример, который изображен выше. Речь идет об определении того, является ли фрукт яблоком или не яблоком.
Обычно в нашей программе мы используем данные о свойствах фруктов. Это называется особенностями машинного обучения. Нравится округлость, цвет, вкус, свойства семян и многое другое. И, конечно же, мы пытаемся представить их в определенных размерах, чтобы компьютер мог понять то же самое.
Итак, наш алгоритм обрабатывает данные/свойства каждого фрукта. И данные проходят через американские горки, пока наша машина не узнает о данных и их свойствах. Точнее, наша машина определяет, является ли предоставленный нам фрукт яблоком или нет.
Давайте погрузимся в концептуальную часть и попытаемся понять, как именно работает логистическая регрессия. Рассмотрим изображение ниже:
Как обсуждалось ранее, наша цель предсказать, является ли фрукт яблоком или нет. Теперь предположим, что нам дан огромный набор данных, и теперь наш алгоритм будет изучать свойства фруктов и различать, является ли наш фрукт яблоком или нет. Предположим, что красные точки говорят нам, что наш фрукт — яблоко (скажем +ve point), а синие точки говорят, что фрукт не яблоко (скажем —ve point).
Работа логистической регрессии состоит в том, чтобы получить границу или границу Решения, которая как можно точнее разделяет точки +ve и -ve. Итак, у нас есть два класса +ve и -ve.
Допущение логистической регрессии: классы почти/идеально линейно отделимы границей решения. А в большой размерной или n-мерной плоскости уравнение плоскости дается выражением:
где w — вектор нормали, перпендикулярный поверхности решения, w^Tx — плоскость, а b — константа. На рисунке выше di — это расстояние от точки +ve до плоскости, а dj — расстояние от точки с минусом до плоскости.
Здесь
является единичным вектором.
В настоящее время
потому что наша плоскость и Xi(+ve points) находятся на одной стороне плоскости и, следовательно, di равно +ve.
так же
потому что плоскость и Xj(-ve точек) находятся на противоположной стороне плоскости и, следовательно, dj равно -ve.
Предположим, что Yi и Yj — это прогнозируемые точки после наблюдения точки запроса с помощью нашей модели логистической регрессии. Потом:-
if
тогда
и
if
тогда
.
Наш классификатор логистической регрессии после обработки точек запроса делает следующие выводы:
если мои точки запроса и его прогнозируемый результат находятся на одной стороне плоскости, то оба
и Yi +ve. и, следовательно
.
Точно так же, если мои точки запроса и его прогнозируемый результат находятся на другой стороне плоскости, тогда оба
а Yi — это -ve. и, следовательно
.
Задача логистической регрессии состоит в том, чтобы найти w и b, чтобы мы могли найти
, который может почти линейно разделить плоскость на 2 половины.
Выше было слишком много математики. Подытожим просто. Здесь вся игра заключается в том, чтобы найти оптимальную плоскость, которая существенно разделила бы мои точки на две разные стороны. Логистическая регрессия — это поиск наилучшего возможного плана. Назовем оптимальную плоскость идеальной плоскостью нашей модели.
Идеальная плоскость найдена после тщательного наблюдения за моими точками запроса с помощью моей модели логистической регрессии, и ее уравнение определяется следующим образом:
Где w(star) — мой идеальный самолет. Помните
называется расстоянием со знаком.
Один из примеров практического примера логистической регрессии:
Надеюсь, вам понравилось читать. Расскажите мне о своем опыте в разделе комментариев. В ближайшем будущем я напишу больше блогов о логистической регрессии вместе с реализацией кода на Python. И следите за обновлениями моего блога, чтобы не пропустить другие интересные блоги о машинном обучении. Спасибо, что читаете!
Первоначально опубликовано на сайте www.siliconbuddy.com 21 августа 2018 г.