написаноПаритошем Марате и Сандешем Локханде

В предыдущем посте мы рассмотрели основы машинного обучения. В этом мы начнем с первой парадигмы ML, а именно обучения с учителем.

Обучение под наблюдением:

В этой парадигме есть «руководитель», который может предоставить необходимые данные, чтобы мы могли сделать выводы.

Эти данные представляют собой форму входных данных и их ожидаемых выходных данных, где входные данные (представленные как X) называются «атрибутами», а выходные данные (представленные y) называются целью.

Затем машина (или алгоритм) может сделать выводы на основе предоставленных данных и создать «модель», описывающую взаимосвязь между входными данными и их ожидаемым результатом.

Тип модели, линейной или другой, определяется типом зависимости между данными и их целью (выходными данными).

Следовательно, «обучение» соответствует изменению параметров модели таким образом, чтобы она лучше прогнозировала данные. Затем цель состоит в том, чтобы улучшить производительность модели, которая определяется тем, насколько близки ее прогнозы к фактическим результатам.

Таким образом, говорят, что модель научилась, когда она точно работает с обучающими данными. Модель можно считать полезной, если она проверена на данных тестирования.

Задачи, которые обычно выполняются при обучении с учителем:

1. Классификация

2. Регрессия

1. Классификация

Классификация — это проблема машинного обучения, в которой модель используется для прогнозирования класса, в котором может находиться точка данных. Класс в основном описывает группу, в которой точки данных или объекты, принадлежащие этой группе, имеют некоторое сходство.

Например. мы решаем, является ли животное кошкой или собакой, основываясь на его характеристиках, таких как размер, морда, мех и т. д.

Следовательно, цель состоит в том, чтобы предсказать дискретный класс или метку (Y) на основе новых входных данных (X) с предположением, что модель была должным образом обучена на обучающих данных. Обучающие данные включают в себя входные данные (X) и их ожидаемый класс/целевой результат (Y), чтобы модель могла «научиться» классифицировать новые данные.

Вот несколько примеров вопроса о том, какая классификация может быть поставлена ​​перед задачей:

  • Анализ настроений в социальных сетях имеет два возможных результата: положительный или отрицательный, как показано на приведенной ниже диаграмме.

  • Это кошка или собака?
  • Он положительный или отрицательный?
  • На этой диаграмме показана классификация набора данных цветов ириса по трем подвидам, обозначенным кодами 0, 1 и 2.

Классификация снова делится на:

  • Бинарная классификация
  • Мультиклассовая классификация

Бинарная классификация:

Это задача классификации входных данных по двум целевым классам. Проблемы могут включать в себя предсказание, например, кошка это или собака, или предсказание положительного отзыва или нет.

Многоклассовая классификация:

Это задача классификации входных данных по трем или более целевым классам. Классы сдержанные. Проблемы могут включать в себя предсказание того, какой алфавит содержится на входе (изображении) в случае оптического распознавания символов.

2. Регрессия

Регрессия — это проблема ML, в которой мы предсказываем новое значение (я) Y при определенных входных данных X.

Здесь снова наша задача состоит в том, чтобы отобразить X в Y для функции f, такой, что

Y = f(X).

Эта функция может принимать несколько форм (линейную, полиномиальную и т. д.), что определяется отношением входных данных.

(X) с целевым выходом (Y).

Следовательно, наша цель по-прежнему состоит в том, чтобы принять форму функции f, а затем «оптимизировать» (попытаться подогнать) модель под данные, чтобы она могла приблизительно представлять их.

E.g.

Учитывать:

X= [0, 1, 2, 3, 4, 5]

Y= [-1, 1, 3, 5, 7, 9]

Такое, что существует отношение Y=f(X).

Поскольку у нас есть только Y и X, мы предполагаем линейную связь между Y и X, которую можно определить в виде

Y=w.X + c

Следовательно, f(X)= w.X + c

Здесь w,c может принимать значения от — бесконечности до бесконечности

После экспериментов мы находим значения w и c равными 2 и -1.

Таким образом, функция принимает вид 2X — 1.

Теперь мы можем использовать эту функцию, чтобы предсказать новые значения Y при заданных входных данных X.

Например. для X=6 Y примет значение 11.

Ссылки

Рисунок 1: https://www.digitalvidya.com/blog/supervised-learning/

Диаграмма 1: https://www.simplilearn.com/classification-machine-learning-tutorial

Диаграмма 2: https://www.simplilearn.com/classification-machine-learning-tutorial