Я объяснил об ИИ и алгоритмах ИИ в своих предыдущих постах —



Что такое ИИ?
Я упоминал термин «ИИ
в своих двух предыдущих постах —medium.com»







Давайте посмотрим на разницу между регрессией и классификацией в этом посте.

Алгоритмы регрессии и классификации известны как алгоритмы контролируемого обучения и используются для прогнозирования в машинном обучении и работы с помеченными наборами данных. Однако их различный подход к проблемам машинного обучения является их точкой расхождения.

Теперь давайте подробно рассмотрим регрессию и классификацию.

Объяснение регрессии в машинном обучении

Регрессия находит корреляции между зависимыми и независимыми переменными. Таким образом, алгоритмы регрессии помогают прогнозировать непрерывные переменные, такие как цены на жилье, рыночные тенденции, погодные условия, цены на нефть и газ (важная задача в наши дни!) и т. д.

Задача алгоритма регрессии — найти функцию отображения, чтобы мы могли сопоставить входную переменную «x» с непрерывной выходной переменной «y».

Типы регрессии

Вот типы алгоритмов регрессии, обычно встречающиеся в области машинного обучения:

  • Регрессия дерева решений. Основная цель этой регрессии — разделить набор данных на более мелкие подмножества. Эти подмножества создаются для отображения значения любой точки данных, связанной с постановкой задачи.
  • Регрессия основных компонентов: Этот метод регрессии широко используется. Есть много независимых переменных, или в ваших данных существует мультиколлинеарность.
  • Полиномиальная регрессия: этот тип соответствует нелинейному уравнению с использованием полиномиальных функций независимой переменной.
  • Регрессия случайного леса: регрессия случайного леса широко используется в машинном обучении. Он использует несколько деревьев решений для прогнозирования выходных данных. Случайные точки данных выбираются из заданного набора данных и используются для построения дерева решений с помощью этого алгоритма.
  • Простая линейная регрессия: этот тип представляет собой наименее сложную форму регрессии, в которой зависимая переменная является непрерывной.
  • Регрессия опорного вектора: этот тип регрессии решает как линейные, так и нелинейные модели. Он использует нелинейные функции ядра, такие как полиномы, чтобы найти оптимальное решение для нелинейных моделей.

Объяснение классификации в машинном обучении

С другой стороны, классификация — это алгоритм, который находит функции, помогающие разделить набор данных на классы на основе различных параметров. При использовании алгоритма классификации компьютерная программа обучается набору обучающих данных и классифицирует данные по различным категориям в зависимости от того, что она изучила.

Алгоритмы классификации находят функцию отображения, чтобы отобразить вход «x» в дискретный выход «y». Алгоритмы оценивают дискретные значения (другими словами, двоичные значения, такие как 0 и 1, да и нет, истина или ложь) на основе определенного набора независимых переменных. Другими словами, алгоритмы классификации предсказывают возникновение события. вероятность путем подгонки данных к логит-функции.

Алгоритмы классификации используются для таких вещей, как классификация электронной почты и спама, прогнозирование готовности клиентов банка платить по кредитам и выявление раковых опухолевых клеток.

Типы классификации

А вот типы алгоритмов классификации, которые обычно используются в машинном обучении:

  • Классификация дерева решений: этот тип делит набор данных на сегменты на основе определенных переменных признаков. Пороговые значения делений обычно представляют собой среднее значение или моду рассматриваемой переменной признака, если они являются числовыми.
  • K ближайших соседей: этот тип классификации идентифицирует K ближайших соседей к данной точке наблюдения. Затем он использует K точек для оценки пропорций каждого типа целевой переменной и прогнозирует целевую переменную с самым высоким отношением.
  • Логистическая регрессия: этот тип классификации не сложен, поэтому его можно легко принять с минимальной подготовкой. Он предсказывает вероятность того, что Y будет связан с входной переменной X.
  • Наивный байесовский алгоритм: этот классификатор является одним из самых эффективных, но в то же время самых простых алгоритмов. Он основан на теореме Байеса, которая описывает, как оценивается вероятность события на основе предыдущего знания условий, которые могут быть связаны с событием.
  • Классификация случайного леса: случайный лес обрабатывает множество деревьев решений, каждое из которых предсказывает значение вероятности целевой переменной. Затем вы получаете окончательный результат, усредняя вероятности.
  • Машины опорных векторов: этот алгоритм использует классификаторы опорных векторов с захватывающим изменением, что делает его идеальным для оценки нелинейных границ решений. Этот процесс возможен за счет расширения пространства переменных функций с помощью специальных функций, известных как ядра.

Разница между регрессией и классификацией

Когда использовать регрессию против классификации

Мы используем деревья классификации, когда набор данных необходимо разделить на классы, принадлежащие переменной ответа. В большинстве случаев эти классы «Да» или «Нет». Таким образом, классов всего два, и они взаимоисключающие. Конечно, иногда может быть больше двух классов, но мы просто используем вариант алгоритма дерева классификации в этих случаях.

Однако мы используем деревья регрессии, когда у нас есть непрерывные переменные отклика. Например, если переменная ответа представляет собой что-то вроде значения объекта или сегодняшней температуры, мы используем дерево регрессии.

Итак, я надеюсь, что этот пост в блоге поможет вам провести различие между регрессией и классификацией.

Оставайтесь с нами, чтобы узнать больше!