Как линейная регрессия, так и логистическая регрессия являются частью обобщенной линейной модели (GLM), и основное различие между ними заключается в том, что линейная регрессия используется для найти прогнозируемые значения непрерывных зависимых переменных на основе непрерывных независимых переменных, тогда как логистическая регрессия помогает найти и предоставить прогнозируемые вероятности зависимой двоичной переменной, будет ли переменная классифицироваться как 0 и 1 на основе независимых переменных, присутствующих в данных. В логистической регрессии независимые переменные могут быть номинальными, порядковыми, интервальными или относительными переменными. Короче говоря, логистическая регрессия может работать с непрерывными и дискретными независимыми переменными. Зависимая переменная может быть бинарной, множественной или порядковой переменной уровня.

Делая прогнозы в Модели линейной регрессии, мы подгоняем линию к данным, которую мы также называем Наименьшими квадратами, чтобы было минимальное расстояние между суммой квадратов остатков и подобранная линия, которую мы находим, получая среднее значение «y». Но в логистической регрессии это сформирует кривую, потому что здесь мы должны найти прогнозируемые вероятности для выполнения классификации, установив пороговое значение «p». Итак, строка подходит к данным на основе «Максимальная вероятность».

Максимальное правдоподобие – это метод поиска оптимального способа согласования распределения с данными и получения среднего значения там, где вероятность или вероятность наблюдения веса высока. Это поможет получить оценку максимального правдоподобия среднего значения. Это помогает найти оптимальное значение для распределения с учетом набора наблюдаемых значений.

В логистической регрессии он возвращает вероятность прогноза, используя максимальную вероятность соответствия нелинейной линии на основе логарифма отношения шансов. Лог шансов, которые мы используем по оси Y, чтобы подтолкнуть данные к положительной и отрицательной бесконечности, чтобы получить прямую линию, а затем снова преобразовать этот журнал шансов в вероятность, чтобы мы получили оптимальное соответствие, делая это мы используем уравнения, упомянутые ниже

Вот как он отображает значение вероятности предсказания между 0 и 1.

В логистической регрессии у нас есть два типа выбора, чтобы получить вероятность прогнозов с гораздо более высокой точностью, а именно:

  1. Упреждающий выбор. В этом случае он начинается с того, что в модели не используются предикторы, затем итеративно он продолжает добавлять наиболее полезные предикторы и останавливается, когда улучшение перестает быть статистически значимым.
  2. Обратный выбор. Он начинается со всех прогнозов в модели, итеративно удаляет наименее значимые предикторы и останавливается, когда у нас есть модель, в которой все предикторы статистически значимы.

Ниже по ссылке вы можете найти код https://github.com/Chesta1/Logistic-Regression/blob/master/HRImputedData.Rmd

Наконец, пожалуйста, не забудьте оставить свой ценный отзыв.